Alle zwei Jahre ruft die Pflicht: Die KESB, die Kindes- und Erwachsenenschutzbehörde, verlangt die Berichterstattung über die vergangenen zwei Jahre. Der Beistand oder die Beiständin muss über die Fortschritte in den verschiedenen Lebensbereichen des anvertrauten Mündels berichten. Eine repetitive Aufgabe, die bei den meisten Mitarbeitenden für schlechte Laune sorgt. „Wie soll ich das jetzt auch noch schaffen, wo ich doch schon mit vier bis fünf Troubleshootings beschäftigt bin?“
Ein Fall für die KI
„Jesses, lass doch die KI das machen!“, denkt ihr jetzt vielleicht. Und ja, die Idee ist verlockend. Aber wie soll das funktionieren? Schliesslich handelt es sich um vertrauliche Daten, und der Datenschützer würde uns sprichwörtlich an die Gurgel gehen, wenn wir Aktennotizen einfach so ins Internet hochladen.
Zudem stellt sich die Frage, wie die KI mit möglichen Verzerrungen (Bias) umgehen soll, die bereits in den Fallakten stehen. Wie soll die KI beispielsweise diesen Satz interpretieren: „Hans Muster hat sich mit seiner Vermieterin herumgeschlagen.“ Was genau bedeutet das? Hat er sie geschlagen, gab es Streit oder hat er Probleme verursacht? Solche Formulierungen bergen Ambivalenzen, die eine KI missverstehen könnte – natürlich auch umgekehrt.
Eine Lösung und ein Vorschlag
Für das Problem des Datenschutzes gibt es eine Lösung – dank einer Wiener Firma namens «Thirdmind». Sie ermöglicht sicheres Arbeiten mit KI, indem ihre Lösung auf den Servern der jeweiligen Organisation läuft. Wie funktioniert das? Ganz einfach ausgedrückt: Man installiert auf dem Intranet der eigenen Organisation – in diesem Fall der öffentlichen Verwaltung – die speziell entwickelte ChatGPT-Oberfläche von Thirdmind. Diese ist für einen vergleichsweise geringen Betrag käuflich.
Sobald das System eingerichtet ist, stehen alle Funktionen eines LLM (Large Language Model) wie ChatGPT zur Verfügung. Werden Word- oder Excel-Daten oder andere Dateien hochgeladen, bleiben die vertraulichen Informationen vollständig auf dem Server der Organisation und gelangen nicht ins Internet. Die Ergebnisse können anschließend wieder in den vertraulichen Datenstrukturen gespeichert werden.
Umgang mit Verzerrungen (Bias)
Für den Umgang mit vorhandenen Verzerrungen gibt es keine universelle Lösung, sondern nur eine klare Handlungsanweisung: Die Mitarbeitenden müssen sich bewusst sein, dass ihre eigenen Formulierungen die Grundlage für die Arbeit der KI bilden. Um Missverständnisse und „Halluzinationen“ der KI zu minimieren, müssen Aktennotizen in Zukunft präziser und neutraler formuliert werden.
Das erfordert zu Beginn Schulungen und regelmäßige Erinnerungen in Teamsitzungen. Nur so kann eine verlässliche Zusammenarbeit zwischen Menschen und KI gewährleistet werden.
Fazit
Mit einer sicheren technischen Lösung und klaren Richtlinien steht dem Einsatz von KI in der sozialen Arbeit nichts mehr im Weg. Viel Spaß beim nächsten Verfassen des Berichts für die KESB – diesmal mit Unterstützung der KI!