Zwischen Verlockung und Verantwortung
Generative Künstliche Intelligenz verspricht Arbeitserleichterung. Doch wie können Fachpersonen der Sozialen Arbeit KI nutzen, ohne den Berufskodex zu verletzen?

Von Christian Liesen, Siro Schnelli und Konstantin Kehl
Generative KI ist anwendungsfreundlich. Leicht zu bedienen wie ein Word-Dokument oder eine Webseite, braucht man kein technisches Verständnis, kein Manual und keine Einführung – es reicht, schreiben oder sprechen zu können. KI-Applikationen zielen darauf, die Benutzung alltagstauglich und so einfach wie möglich wie machen. Das ist gut für die Nutzenden und gut fürs Geschäft.
Die Anziehungskraft der KI ist darum auch in der Praxis der Sozialen Arbeit nur zu verständlich. Wer wünscht sich nicht Unterstützung, wenn er Aufgaben wie die folgenden vor sich hat?:
- Die Tagesjournale zur Adressat:innendokumentation sollen ausgewertet werden zur Frage, wann, wo und zu welchen Tageszeiten es zu Krisen kommt.
- Die Nutzungsdokumentation zum neuen Angebot muss erstellt werden, weil die Geldgeberin wissen will, wie viel Leistung in den letzten drei Jahren auf welchen Inhalt entfallen ist.
- Der Dienstplan ist à jour zu halten, um Pensen, Funktionen und Einsatzwünsche der Mitarbeitenden zu berücksichtigen.
- Die Zufriedenheitsbefragung der Erziehungsberechtigten im Jugendheim muss zusammengefasst werden.
- Für den 10-Jahres-Jubiläumsband sind die besten Fotos aus den digitalen Alben der Wohngruppen zusammenzustellen.
- Das physische Dossier der neuen Adressat:innen soll digitalisiert werden.
- Die Teambesprechung, das Geschäftsleitungsmeeting und das Gespräch mit den Angehörigen muss protokolliert und digitalisiert werden.
Es würde einem in der Sozialen Arbeit normalerweise nicht einfallen, Daten an Dritte zu geben, die keinen Auftrag haben. Aber Künstliche Intelligenz überschreibt diesen Reflex. Sie ist eine dritte Instanz, in die rasch einmal ohne gross nachzudenken Daten eingefüttert werden. Wie kommt das?
Berufskodex bietet Orientierung
Normalerweise bietet der Berufskodex einen gewissen Schutz gegen einen allzu leichtfertigen Umgang. Insbesondere die folgenden Grundsätze berühren, wie KI benutzt werden kann und soll:
- sorgfältiger Umgang mit Personendaten
- Datenschutz und Schweigepflicht
- Dokumentation der eigenen Tätigkeit nach anerkannten Standards
- Unterscheidung zwischen überprüfbaren Fakten, eigenen Beobachtungen, Fremdbeobachtungen sowie Hypothesen und Erklärungen bzw. Deutungen
- Transparenz über die Arbeitsweisen und die Methodenwahl.
In diesen und anderen Aspekten ist der Berufskodex nicht einfach wohlfeil, sondern er bietet tatsächlich Orientierung. Eine KI ist weder neutral noch objektiv und es kommt nicht infrage, sie als etwas anderes als eine «Fremdbeobachtung» zu betrachten. Vertrauliche Daten, erst recht solche von Klient:innen, wird man ihr nicht anvertrauen. Und wenn man sie als Werkzeug benutzt, wird man zu keinem Zeitpunkt die eigene Urteilsbildung abtreten.
So weit, so gut. Nur: Technische Neuerungen haben eine Eigendynamik. Mancher wird sich erinnern, wie es war, als WhatsApp auf den Plan trat, als es die ersten Sozialen Netzwerke gab und das Smartphone sich verbreitete. Die (vermeintliche) Problemlösung wurde höher gewichtet als etwaige Bedenken. Es wurde wie wild herumprobiert, geteilt und vorgeprescht. Das gehört dazu, wenn solche Neuerungen sich verbreiten. Die Erfahrung zeigt: Ist der Geist erst aus der Flasche, bekommt ihn kein Berufskodex wieder hinein.
Was also tun – an was kann oder muss man denken, wenn man KI in der Sozialen Arbeit einsetzen will?
Evolution statt Revolution
Wir glauben, es ist hilfreich, sich KI mehr als Evolution denn als Revolution vorzustellen. Evolution beginnt mit Variation, vollzieht sich über Selektion und landet schliesslich bei einer neuen Kontinuation (oder Stabilisierung): Das kann man auf die Praxisanwendung von KI in der Sozialen Arbeit übertragen.
Jede Innovation beginnt mit Variation. Das heisst: Sie beginnt mit der Abweichung von der Routine. Und das bedeutet:
- sie ist wenig planbar
- Grenzen werden überschritten, das gehört dazu.
Diese Phase der Variation ist bei der Verwendung von KI in der Sozialen Arbeit derzeit überall zu beobachten. Die Grenzüberschreitungen sind allerdings ganz unterschiedlicher Natur. Nicht jedem ist bewusst, dass man die kostenlose KI-Anwendung in der Regel mit den Prompts bezahlt: Die Prompts, Spracheingaben und Dokumente werden Teil des Trainingssets. Doch auch Bezahlangebote bieten nicht automatisch Schutz. Fast immer haben die Mitarbeitenden des KI-Anbieters Zugriff auf Prompts und Dokumente.
Heikle Daten – schon gar Daten von Klient:innen – in eine KI zu füttern, verbietet sich damit von selbst. Es sei denn, man betreibt sie selbst. Das geht durchaus: Tools wie gpt4all, Ollama oder h2oGPT (und viele andere) lassen sich lokal installieren und betreiben. Dafür genügt ein ordentlich ausgestatteter Desktopcomputer. Für den professionellen Betrieb braucht man allerdings Server mit sehr viel Speicherplatz und sehr viel Arbeitsspeicher und jemanden, der sich damit auskennt, also schon einige zehntausend Franken. Wer den Aufwand scheut, setzt vielleicht auf Lösungen wie SwissGPT von AlpineAI: Die Server stehen in der Schweiz und ein Anonymisierungslayer sorgt dafür, dass die KI möglichst keine personidentifizierenden Daten verarbeitet.
Aber löst das bereits das Problem? Wohl kaum, denn im Innovationsprozess folgt die Selektion. Nicht alles, was ausprobiert wird, erweist sich als beständig:
- Das Allermeiste wird vergessen oder verworfen oder bleibt bestenfalls als das vielzitierte schlechte Beispiel in Erinnerung.
- Andererseits setzen sich reale Veränderungen fest.
Die Selektion von KI-Anwendungen ist längst im Gange. An nicht wenigen Orten beginnt sich eine zumindest in Teilen geordnete Praxis zu etablieren, begleitet von Rahmenvorgaben. Der Punkt ist jedoch: Der Nutzen lässt sich einzig an der Selektion ablesen, nicht an der Variation. Positiv selektiert, also zur Weiterverwendung ausgelesen, wird das, was tatsächlich einem Bedürfnis entspricht, ein Problem löst oder auf sonst eine Weise die Nutzenabwägung vom Risiko zum Gewinn dreht. Und das ist unabhängig davon, ob die Verwendung offiziell erlaubt oder ob sie sanktionsbewehrt ist. Wer versucht, Variation auf dem Dienstweg zu überspringen, indem er Selektion verordnet, darf sich nicht wundern, wenn sich eine Schattenpraxis ausbildet. Nutzen ist Nutzen. Das Dunkelfeld ist, an allen guten Wünschen und Vorgaben vorbei, nicht totzukriegen.
Gelingt es, die positive Abweichung zu selektieren, dann folgt die Kontinuation (oder Stabilisierung). Die Abweichung wird zum neuen Normalfall. Allerdings nur, wenn sie in den gelebten Alltag passt. Das heisst:
- Ob es gelingt, hängt nicht einfach vom Beschluss der Beteiligten ab. Sondern davon, ob man mit den neuen Praktiken und Arbeitsweisen im Alltag die Aufgaben schafft, für die man den Nutzen braucht.
Und das führt zum letzen Punkt: der Nutzenabwägung in der Praxis der Sozialen Arbeit.
Was bringt mir KI wirklich?
Die entscheidende Frage lautet also: Was bringt mir der Einsatz von KI wirklich, und aufgrund welcher Vorteile lohnt es sich, die sattsam diskutierten Risiken und Zielkonflikte einzugehen?
Natürlich hilft zunächst mal Wissen. Ich muss wissen, KI ist nicht gleich KI. Es lohnt sich, die KI nicht wie ein Werkzeug, sondern wie eine dritte Instanz zu behandeln, die von mir einen Auftrag bekommt: Da muss ich mich für die Datenschutzfragen interessieren, für Vertragsmodelle und für die Möglichkeit, z.B. ein lokales (geschlossenes) Large Language Modell zu nutzen, also lokal die eigene KI laufen zu lassen, siehe oben. Ich muss den minimalen Orientierungsrahmen im Blick behalten, den der Berufskodex bietet.
Aber der springende Punkt ist es, den Anwendungsfall wirklich zu analysieren. Und das heisst: Einen kühlen Kopf bewahren inmitten der Variations- und Selektionsprozesse, die mit hoher Schlagzahl ablaufen. Wenn Innovation wie beschrieben evolutionär abläuft, dann heisst das bezogen auf die Anwendung von KI in der Praxis der Sozialen Arbeit: Man muss Irritationen des Bestehenden aushalten, beobachten und in der eigenen Praxis und den eigenen Arbeitsweisen gestalten können.
Ich brauche also Antworten auf die Fragen: Welche guten Gründe gibt es, es in diesem konkreten Fall trotzdem zu tun? Welche Anpassungsnotwendigkeiten bringt das mit sich (an den Daten, Prozessen, Abläufen, Kommunikation, Nutzungsbedingungen oder Verträgen)? Wie löse ich sie ein?
Selbstverantwortung ist gross
Das ist schwierig. In vielen Fällen ist nicht einmal gesagt, dass KI tatsächlich den erwarteten inhaltlichen (qualitativen) Gewinn erzeugt gegenüber einer herkömmlichen Vorgehensweise. Werde ich wirklich schneller, werde ich wirklich effizienter, die Tagesjournale auswerten, die Nutzungsdokumentation erstellen, die Zufriedenheitsbefragung auswerten usw. – so, dass hinterher weitere Entscheidungen auf diesen Resultaten basieren können? Deswegen braucht es ja die Variation.
Aber ist es überhaupt möglich, diese Art von Innovation zu gestalten? Eine Grundproblematik für Innovation im Sozialbereich besteht schliesslich darin, dass soziale Dienstleistungen typischerweise vom Staat finanziert und von komplexen gesetzlichen Regularien gesteuert werden, in denen selten Spielräume für Innovation mitgedacht wurden. Oder anders ausgedrückt: Für vieles von dem, was aktuell in sozialen Organisationen passiert, gibt es keine eindeutige juristische oder normative Handhabe.
Am Ende müssen wir uns wohl, getreu dem Berufskodex und dem professionellen Ethos, verantwortlich fühlen – gegenüber den Adressat:innen, den geldgebenden Stellen und der Gesellschaft – und im Zweifel Rechenschaft darüber ablegen können, mit welchen Daten wir eine KI gefüttert haben. Wir müssen im Hinterkopf haben, als Option, dass jemand kommt und fragt «Was hast du da gemacht?» – und zwar am besten wir selbst.
CAS Digitale Transformation der Sozialen Arbeit
Dokumentation zusammenstellen, Dienstpläne anpassen oder Sitzungsprotokolle digitalisieren, das Ganze möglichst schnell, aber dabei immer den Datenschutz einhalten: Solche Herausforderungen zu meistern, lernen Sie im CAS Digitale Transformation der Sozialen Arbeit. Erwerben Sie jetzt die Kompetenzen, um die Soziale Arbeit digital und sicher zu gestalten.