Das Potenzial generativer KI für die Soziale Arbeit

Eine Hand hält einen goldenen Schlüssel, der in eine Holzfigur eingeführt wird, um ein symbolisches Schloss zu öffnen. Im Hintergrund strahlt ein digitales Licht mit futuristischen Elementen, das Innovation und Potenzial symbolisiert. Dieses Bild vermittelt die Idee von Zugang und Durchbruch, möglicherweise im Kontext von Technologie oder sozialen Lösungen.

Ist generative KI reine Ressourcenverschwendung oder wirklich die Revolution, von der BigTech Konzerne und ihre Fans schwärmen? Das kann heute niemand mit Bestimmtheit sagen. Allerdings können wir von den ersten Praxiserfahrungen lernen und daraus Schlüsse ziehen.

Genau dazu lade ich dich heute ein. Im Folgenden skizziere ich das Potenzial generativer KI für die Soziale Arbeit, wie ich sie in meiner eigenen Arbeit und aus den Erfahrungen von Fachkräften und Klient*innen, von denen ich lernen darf, erlebe.

Ökologische, menschliche und intellektuelle Kosten generativer KI im Blick behalten

Bevor ich auf die Erfahrungen eingehe, ist es mir wichtig, zumindest kurz auf die ökologischen, menschlichen und intellektuellen Kosten generativer KI einzugehen.

Nicht um die Neugier und den Spaß am Testen und der Nutzung zu dämpfen, sondern um den Rahmen zu setzen und deutlich zu machen:

Wir sollten diese Werkzeuge sehr reflektiert, bewusst und nach Abwägung der realen Kosten und Auswirkungen einsetzen.

Ökologische Kosten – Dieser Aspekt ist vermutlich der bekannteste der Realkosten. Wer sich für den detaillierten Stromverbrauch interessiert, kann sich mit dem „AI Emission Scenario Generator“ selbst an die Rechnung machen. T3N berichtet über das Tool und nennt unter anderem CO₂-Zahlen für das Training von KI-Modellen. Die Tagesschau berichtet, dass die CO₂-Emissionen aller an KI beteiligten Tech-Konzerne deutlich steigen und nennt in einem anderen Bericht ebenfalls Zahlen zum Wasser- und Stromverbrauch. Und der Deutschlandfunk zeigt auf, dass Google, Microsoft und Co. auf Atomkraft setzen, um den Stromverbrauch der für generative KI nötigen Rechenzentren zu decken. Es dürfte klar sein: Der ökologische und energetische Fußabdruck generativer KI ist massiv.

Menschliche Kosten – Auch dieser Aspekt ist eigentlich bekannt, wird aber gerne ausgeblendet. Schon 2023 berichtet das Time Magazin darüber, wie in Kenia Menschen für die Vorbereitung und Filterung der Trainingsdaten für KI-Modelle ausgebeutet werden. Netzpolitik.org greift das Thema mit Verweis auf dem Times Artikel im selben Jahr auf. Und auch WDR und Tagesschau widmen dem Thema eigene Reportagen. Um sicherzustellen, dass wir hierzulande KI-Modelle nutzen können, die nicht mit gewaltverherrlichendem Material trainiert werden, wird die psychische Gesundheit von Menschen des Globalen Südens strapaziert und geschädigt.

Intellektuelle Kosten – Die kritisch-warnenden Stimmen zu diesem Aspekt gab es schon bei der Veröffentlichung von ChatGPT. Mit der weiten Verbreitung generativer KI-Tools sind sie zwar nicht leiser geworden, sie werden jedoch von der euphorischen Kommunikation übertönt. Allerdings gibt es inzwischen erste wissenschaftliche Arbeiten dazu. Die aktuellste mir bekannte Studie trägt den Titel „AI Tools in Society: Impact on Cognitive Offloading and the Future of Critical Thinking“ und stammt vom Center for Strategic Corporate Foresight and Sustainability in Zürich. Das 28 Paper ist eine klare Leseempfehlung. Die Forschenden schreiben in ihrem Fazit unter anderem:

„Our research demonstrates a significant negative correlation between the frequent use of AI tools and critical thinking abilities, mediated by the phenomenon of cognitive offloading. This suggests that while AI tools offer undeniable benefits in terms of efficiency and accessibility, they may inadvertently diminish users’ engagement in deep, reflective thinking processes. Younger participants who exhibited higher dependence on AI tools scored lower in critical thinking compared to their older counterparts. This trend under- scores the need for educational interventions that promote critical engagement with AI technologies, ensuring that the convenience offered by these tools does not come at the cost of essential cognitive skills.“

Solche Erkenntnisse sind der Grund für mein viertes Prinzip für die Arbeit mit generativen KI-Werkzeugen:

„KI kann Arbeitsschritte erleichtern, darf sie aber nie exklusiv erfüllen.“

Es soll Abhängigkeit von KI-Tools verhindern. Wer in einem meinem KI-Workshops oder Vorträge weiß zudem: Generative KI-Tools können kritischen und strategisches Denken sogar fördern – wenn sie entsprechend genutzt werden. Es geht also um KI-Medien-Kompetenz, um mal ein Wort dafür zu erfinden.

Alle drei Aspekte – ökologische, menschliche und intellektuelle – sind Teil der realen Kosten der Nutzung generativer KI. Zumindest Aspekt eins und drei können wir in der Sozialen reduzieren.

Die ökologischen Kosten können beispielsweise durch die Nutzung von offline KI-Systemen und die intellektuellen Kosten durch einen reflektierten Einsatz reduziert werden. Doch wir sollten alle drei Kostenaspekte bei den folgenden Ausführungen der Potenziale im Hinterkopf haben.


Das Potenzial generativer KI für die Soziale Arbeit

Wie eingangs erwähnt, ist die folgende Übersicht ganz sicher nicht vollständig. Ich stelle hier lediglich meine eigenen Erfahrungen und die Dinge, die ich von zahlreichen Kolleginnen und Kollegen und Klientinnen und Klienten in verschiedenen Projekten, in Workshops oder über ihre Publikationen lernen durfte, vor.

Das bedeutet drei Dinge:

  1. Diesen Artikel werde ich immer dann aktualisieren und erweitern, wenn ich neue Erfahrungen sammle oder auf neue, aus meiner Sicht teilenswerte, Beispiele und Projekte treffe.
  2. Nicht bei allen Anwendungsfällen kann ich die Beispiele konkret nennen. Manche Projekte, Träger und Fachkräfte suchen ganz bewusst nicht die öffentliche Bühne und wollen ihre Arbeit in Ruhe machen.
  3. Wenn ihr gute Beispiele, Projekte und Potenziale aus eigener Erfahrung oder der Praxis anderer kennt, teilt sie gerne in den Kommentaren oder schreibt mich an. Wenn die Erfahrung anonym geteilt werden soll, respektiere ich das natürlich.

Damit ist der Rahmen gesetzt. Auf geht’s in die Erfahrungen aus der Praxis.


Generative KI in der Lehre der Sozialen Arbeit

Den Anfang der Übersicht macht die Lehre in der Sozialen Arbeit. Hier leistet die geschätzte Emily Engelhardt mit ihren Studierenden ganz hervorragende Arbeit. Ihr Blogartikel „Lernen mit ChatGPT“ zeigt ganz praktisch, wie generative KI-Werkzeuge für Studierende der Sozialen Arbeit zu wertvollen Lernwerkzeugen werden können.

Das e-Beratungsinstitut geht mit dem virtuellen Klienten einen etwas anderen, jedoch ebenso spannenden Weg. Ein KI-gestützter „virtueller Klient“ dient als Übungspartner, der übrigens auch in einem kostenlosen Selbstlernkurs verfügbar ist oder verfügbar werden soll. Ein Blick lohnt sich auf jeden Fall.

Von mindestens zwei Lehrenden weiß ich, dass sie generative KI-Tools als Akteure in Planspielen und Praxisszenarien einsetzen. Dabei entwickeln die Studierenden einerseits das Szenario gemeinsam mit der KI. Andererseits kreieren sie auch KI-Akteure, die im Szenario eine aktive Rolle spielen, die allerdings nur dem Team bekannt ist, das den jeweiligen Akteur erstellt hat. So entstehen teilweise überraschende und sich dynamisch verändernde Situationen, die für die Studierenden hervorragende Lernerfahrungen bieten.

Neben den genannten Kolleg*innen ist auch die geschätzte Barbara Geyer auf LinkedIn eine klare Folgeempfehlung, wenn es um generative KI in der Lehre der Sozialen Arbeit geht.


Generative KI in der Beratung

Der geschätzte Marc Hasselbach vom Zentrum für Digitale Teilhabe ist nicht nur ein Verfechter offener KI-Modelle und lokaler Nutzung, sondern hat auch umfangreiche Erfahrung im Einsatz in der Suchthilfe gesammelt.

Sein Videobericht „Künstliche Intelligenz in der Suchthilfe“ zeigt zahlreiche kreative Nutzungsmöglichkeiten auf.

Ebenfalls Teil seines Portfolios, und für die Beratung in der Sozialen Arbeit vielleicht noch spannender als die KI gestützte Beratung via Chatbot, ist sein Ansatz zur KI gestützten Telefonberatung, den er im folgenden Video vorstellt.

Lesenswerte Impulse für den Einsatz von KI im Beratungskontext der Sozialen Arbeit finden sich auch beim geschätzten Stefan Kühne und in den Ausgaben seines e-Beratungsjournals.


Generative KI in der Arbeit mit Jugendlichen

In meiner eigenen Arbeit mit Teams aus der Jugendarbeit durfte ich einige, für mich teilweise auch überraschende, Einsatzmöglichkeiten generativer KI kennenlernen.

Das erste Beispiel klingt banal, hat sich jedoch als wirklich nützlich erwiesen: KI als Schreibtrainer für Jugendliche, deren Muttersprache nicht Deutsch ist. Konkret kommt in den Projekten der KI-Schreibassistent DeepL Write zum Einsatz. Die kostenlose Version, die ohne Anmeldung nutzbar ist, des deutschen Online-Werkzeugs reicht völlig aus.

Der Ansatz in Kurzform:

Jugendliche in einem betreuten Ausbildungsprogramm schreiben ihre Texte, von Berichtsheft bis Aufsatz, selbst auf Deutsch. Diese Texte geben sie dann im Rahmen definierter Arbeitsphasen in DeepL Write ein. Sie übernehmen die Korrekturen aber nicht einfach, sondern sind angehalten – und werden dabei unterstützt – sich die Korrekturen genau anzuschauen, Muster zu erkennen und so ihr Schriftdeutsch zu verbessern.

Nach einigen Wochen dieser Arbeit meldete sich eine Berufsschullehrerin bei den Sozialarbeitenden des Teams. Sie war überrascht – und ein wenig frustriert. Denn in den letzten hatte sich das Schriftdeutsch der begleiteten Jugendlichen auch im Unterricht, in dem sie DeepL nicht nutzen konnten, deutlich verbessert.

Diese Entwicklung war natürlich positiv. Die Lehrerin war jedoch frustriert, dass diese Fortschritte so viel schneller gelangen als in den Monaten ihres Unterrichts zuvor. Sie fragte sich, und das Team der Sozialarbeitenden, was sie falsch machte.

Die Antwort: Es lag vermutlich nicht an ihr. Denn nach dem Telefonat befragte das Team die Jugendlichen. Einerseits gratulierten sie ihnen zu den tollen Fortschritten, andererseits wollten sie wissen, warum das Feedback von DeepL so viel besser funktionierte als das der Lehrenden.

Die Antwort der Jugendlichen:

„DeepL zeigt mir, was ich besser machen kann und woran ich arbeiten muss. Aber es bewertet mich nicht, ich muss mir keine Gedanken machen, dass mich jemand für dumm hält, wenn ich den gleichen Fehler mehrfach mache. Damit kann ich viel besser umgehen.“

Sicher, repräsentativ ist das, auch wenn ich es inzwischen in vier Teams und Trägern umsetzen durfte, nicht. Dennoch sind Denkanstöße hier definitiv vorhanden.

Der zweite Ansatz aus meiner Praxis: Generative KI für die Vermittlung von Medienkompetenz. Er entstand durch einen Zufall.

In einer Workshop-Pause mit dem Team eines Jugendhauses hörten die Fachkräfte und ich, wie die Jugendlichen über den Angriff der Hamas auf Israel diskutierten. Dabei kamen teilweise auch klare Fake News in der Diskussion vor. Die Fachkräfte wollten das gerne adressieren, jedoch nicht mit der Tür ins Haus fallen.

Spontan probierten wir etwas aus: Ich fragte die Jugendlichen, ob sie Lust hatten, eine KI-App auszuprobieren. Die Antwort war, wenig überraschend, ja.

Also schauten wir uns gemeinsam die kostenlos nutzbare Recherche- und Such-App perplexity.ai an. Die Jugendlichen nutzen sie auf ihren Smartphones, die meisten mit Spracheingabe statt tippen.

Nachdem die Funktionsweise klar war, sprachen wir über ihre Diskussion zum Hamas-Überfall aus Israel. Das Thema beschäftigte die Jugendlichen sehr, es war wenige Tage nach dem Geschehen, und gemeinsam gestellte Aufgabe lautete:

Recherchiert mit Perplexity nach Quellen, die eure aktuellen Informationen bestätigen oder widerlegen. Im Anschluss sprechen wir gemeinsam darüber, was ihr gefunden habt und wie sich eure Meinung entwickelt hat.

Schon bei der Recherchephase diskutierten die Jugendlichen sehr aktiv miteinander. Die anschließende Auswertung übernahmen dann die Fachkräfte vor Ort, die schon länger mit den Jugendlichen arbeiteten. Es wurde eine sehr produktive Session zum Thema seriöse Quellen, Fake News und wie man sie erkennt.

Das Team hat mir einige Zeit nach unserem Termin rückgemeldet, dass sie die „Perplexity Sessions“ jetzt regelmäßig anbieten und sie gut angenommen werden.

In beiden Anwendungsfällen ist generative KI ein Werkzeug für die eigentliche Arbeit mit den Klientinnen. Gleichzeitig helfen die generativen KI-Tools in diesen Fällen dabei, Hürden abzubauen und die Informationen und Möglichkeiten zugänglich zu machen.

Eine Leseempfehlung mit weiterführenden Artikeln zum Thema ist der Artikel „Realitätscheck: KI in der Jugendarbeit und Bildung“ von Uwe Breitenborn bei der Medienwerkstatt Potsdam.


Generative KI in der Kommunikation und den Prozessen von Organisationen der Sozialen Arbeit

Die naheliegenden Einsatzmöglichkeiten wie das Schreiben von Social-Media-Beiträgen oder Pressemitteilungen spare ich mir hier. Sie sind zur Genüge im Netz dokumentiert und inzwischen keine Neuigkeit mehr.

Stattdessen möchte ich das Beispiel eines Trägers aus dem Migrationsbereich aufgreifen, mit dessen Team ich arbeiten durfte. Die Fachkräfte wollen und müssen ihre Klientinnen und Klienten in verschiedenen Sprachen adressieren. Als wirksamstes Medium haben sich leider Videos, die nur direkt ausgespielt und nicht veröffentlicht werden, erwiesen. Leider, weil diese bisher multilingual nur sehr aufwendig zu produzieren waren.

In unserem kleinen Projekt haben wir mit dem generativen KI-Dienst Heygen zunächst Videos einer Mitarbeiterin und eines Mitarbeiters übersetzen lassen. Die Resonanz war hervorragend:

Klientinnen und Klienten fühlten sich viel besser informiert und persönlich angesprochen. Alle waren angetan – bis es ein Problem gab.

Denn kurze Zeit nach unserem ersten Termin kam eine Klientin in die Einrichtung und begrüßte die Mitarbeiterin aus dem Video freudestrahlend in ihrer Landessprache. Nur um dann enttäuscht zu sein, dass die Mitarbeiterin die Sprache offline gar nicht konnte.

Zwar stand bei allen Informationsvideos dabei, dass diese mit KI erstellt und übersetzt wurden, aber die Hinweise waren offensichtlich nicht klar genug. Rückblickend ein offensichtlicher Fehler, im ersten Moment hatten wir alle aber nicht daran gedacht.

Bei unserem zweiten Termin wagten wir ein Experiment:

Wir generierten die Videos neu – dieses Mal mit einem männlichen und einem weiblichen KI-Avatar, also komplett KI generierten Personen.

Die virtuelle Kollegin und der virtuelle Kollege, ich nenne sie hier Maja und Daniel, kommunizieren in den Videos klar, dass sie virtuell und KI generiert sind. Am Schluss eines jeden Videos steht eine Bitte an die Zuschauenden:

„Wenn du im Haus XY vorbeikommst, sag bitte bei der Terminvereinbarung Bescheid, wenn du eine Übersetzerin oder einen Übersetzer brauchst. Meine menschlichen Kolleginnen und Kollegen können die verschiedenen Sprachen nicht so gut wie ich.“

Die Resonanz? Hervorragend! Niemand stört sich, bis heute, daran, dass die Kollegin und der Kollege im Video KI generiert sind, es gab auch keine enttäuschten Erwartungen mehr. Ziel erreicht.

Aktuell spreche ich mit verschiedenen Trägern aus unterschiedlichen Arbeitsfeldern darüber, ob wir mit KI-Modellen, die auf den eigenen Servern laufen, die Dokumentation und Berichtserstellung KI-basiert und datenschutzkonform optimieren können.

Mit kommerziellen Werkzeugen wie dem Microsoft CoPilot oder der Business-Version von ChatGPT und Claude durfte ich das bei einigen Organisationen bereits begleiten. Auch bei einigen Öffentlichkeitsarbeitsteams.

Die sich anbahnenden Projekte finde ich persönlich jedoch spannender, denn ich bin davon überzeugt, dass wir in der Sozialen Arbeit mit offenen KI-Modellen, offline oder auf eigenen Servern, arbeiten sollten.

Und das aus drei Gründen:

  1. Mit eignen Modellen und Hardware können wir den Ressourcenverbrauch beeinflussen.
  2. Nur mit eigenen Tools können wir den Datenschutz gewährleisten und verhindern, das kommerzielle Anbieter unsere Daten mit nutzen.
  3. Wir sollten uns nicht von kommerziellen Anbietern abhängig machen.

Bonusgrund:

Wir können damit ein Zeichen und Praxisbeispiel schaffen, das zeigt, dass es auch anders geht. Wer sollte das tun, wenn nicht wir?

Ich weiß, unter anderem durch einen Bericht in den KI-Sessions des Fachcamps Soziale Arbeit, dass beispielsweise Tremaze in seiner App und Plattform KI-basierte Unterstützung bei der Dokumentation anbietet. Diese funktioniert, so der Bericht in der Session, wohl sehr gut. Ich bin sicher, es gibt da auch schon andere Anbieter, die ich aber noch nicht direkt oder indirekt kenne. Wenn ihr Tipps habt: Immer her damit – solange ihr eigene Erfahrung oder die von Kolleginnen und Kollegen als Basis habt.

Von verschiedenen Wohlfahrtsverbänden weiß ich außerdem, dass sie eigene GPTs für die Entwicklung von Förderanträgen und Konzepten erstellt haben. Die Arbeit geht damit, so die Aussagen der Kolleginnen und Kollegen, deutlich leichter von der Hand.


Generative KI in der Sozialen Arbeit: Wir stehen ganz am Anfang

Mich freut es sehr, wenn ich sehe, dass es in der Sozialen Arbeit echtes Interesse an generativer KI gibt. Klar, es ist Teil meiner selbstständigen Arbeit und daher auch finanziell für mich interessant, doch das ist nicht der Hauptgrund.

Mir geht es vor allem darum, dass die Entwicklung generativer KI noch recht am Anfang steht. Dass sich Soziale Arbeit schon jetzt dafür interessiert, bedeutet, dass es sowohl die Profession der Sozialen Arbeit als auch die Branche der Sozialwirtschaft schaffen kann, sich bei dieser Entwicklung rechtzeitig einzubringen.

Das ist nicht nur für die Arbeits- und Zukunftsfähigkeit unserer Einrichtungen und Angebote wichtig, sondern vor allem gesellschaftlich relevant.

Denn einerseits müssen bei Regulierungen wie beispielsweise dem EU-AI-Act auch die sozialen Komponenten eine Rolle spielen. Andererseits muss immer wieder klargemacht werden, welche gesellschaftlichen Auswirkungen Biases in KI Systemen haben können, wenn sie beispielsweise in der Agentur für Arbeit oder anderen Institutionen eingesetzt werden.

Und nicht zuletzt wird generative KI auch so manchen Arbeitsplatz kosten. Klar entstehen dann neue, aber die sozialen Folgen dieser Veränderung müssen rechtzeitig adressiert werden.

Bei all diesen Themen, und noch vielen weiteren, ist eine starke Soziallobby in der KI-Diskussion unverzichtbar. Wenn sich Soziale Arbeit rechtzeitig strategisch mit dem Thema befasst, sich Verbündete in der technisch orientierten Zivilgesellschaft sucht und ihre sozialpolitische Lobbyrolle ernst nimmt, kann sie genau diese so dringend nötige Stimme sein.

Dieses Jahr stehen bei mir unter anderem die intensive Beschäftigung mit generativer KI im Kontext von Inklusion, digitaler Teilhabe und bei den Themen Trauer und Sterben im Hospizbereich an.

Da ich hier bisher nach eigenem Dafürhalten zu wenig konkrete Erfahrung habe, findet ihr in der aktuellen Version des Artikels dazu noch keine Projekte oder Beispiele.

Wenn ihr welche kennt oder Lese- und Folgeempfehlungen habt: Ich freue mich über jeden Hinweis.

Dieser Artikel ist auch eine Einladung an euch, eure Erfahrungen einzubringen. Ich freue mich darauf.



Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

DSGVO Cookie Consent mit Real Cookie Banner