„Ist das KI oder hast du das selbst gemacht?“ Wer heute Inhalte online stellt, kennt diese Frage bestimmt. Was für Hobby-Präsenzen nervig oder ärgerlich ist, kann für soziale und gemeinnützige Organisationen und ihre Kommunikationsverantwortlichen – ich fasse diese Gruppe im Folgenden unter „wir“ zusammen, weil ich mich dazu zähle – ein echtes Problem sein.
Denn wir und unsere Organisationen leben von Vertrauen. Vertrauen in unsere Arbeit, Vertrauen darin, dass wir unsere Aufgaben in Übereinstimmung mit unserem Leitbild und unserer Mission erfüllen, dass wir transparent und ehrlich kommunizieren und uns für die Menschen und Themen einsetzen, für die wir da sein sollen.
Genau deshalb ist die Frage „Ist das KI oder hast du das selbst gemacht?“ für uns problematisch. Denn wenn Menschen in und außerhalb unserer Organisation nicht wissen, ob Inhalte von Menschen oder von generativer KI erstellt wurden, kann dadurch das für uns so wichtige Vertrauen langsam aber sicher erodieren.
Das mag für den einen oder die andere übertrieben klingen, ist in meiner Arbeit jedoch ein Problem, das mir immer häufiger begegnet. Doch was können wir dagegen tun? Generative KI gar nicht mehr nutzen?
Meine Antwort: Wenn wir uns klar positionieren und Transparenz schaffen, stärken und sichern wir Vertrauen. Das gelingt auch mit verantwortungsvoller Nutzung generativer KI.
Menschen für Menschen, unterstützt durch generative KI
Sowohl im englisch- als auch im deutschsprachigen Raum sind im letzten Jahr zahlreiche (Qualitäts‑)Siegel und Auszeichnungen entstanden, die von Menschen gemachte Inhalte oder verantwortungsvolle Nutzung generativer KI signalisieren sollen.
Da ich kein Fan von Siegeln und Auszeichnungen bin, habe ich bisher keine zur Kenntnis genommen, mich aber selbst keiner angeschlossen. Wenn euch ein detaillierter Blick auf solche Siegel und Auszeichnungen interessiert, lasst es mich in den Kommentaren wissen und ich schaue sie mir genauer an. Hinweis für Anbietende: Bitte keine Werbung in den Kommentaren. Ihr könnt mich gerne per Mail, Nachricht oder Signal kontaktieren.
Die Idee hinter solchen Auszeichnungen ist für mich jedoch attraktiv und sinnvoll: eine klare Positionierung und ein Bekenntnis für Inhalte, die von Menschen für Menschen gemacht sind.
Genau die empfehle ich in meinen Workshops und Seminaren regelmäßig. So ausgelutscht das auch klingen mag: Das beginnt bei der Haltung.
Der Vorteil sozialer und gemeinnütziger Organisationen für die KI-Arbeit
Aktuell erlebe ich, vor allem bei Organisationen im Bereich der Sozialen Arbeit, weniger bei NPO, eine sehr unsichere, fast schon entschuldigende Haltung. Kommt das Gespräch auf generative KI, fallen Sätze wie „Soweit sind wir noch nicht“ oder „Damit fangen wir gerade erst an“. Am schlimmsten für mich ist jedoch der Satz „Das können unsere Leute nicht“.
Können wir bitte aufhören, uns unter Wert zu verkaufen und die bei uns arbeitenden Menschen, wenn auch nur indirekt, als schlecht oder unfähig darzustellen?
Mag sein, dass wir das Thema generative KI noch nicht komplett strategisch für unsere Organisation erschlossen haben. Doch das geht auch den meisten Unternehmen (noch) so!
Wenn unsere Leute das noch nicht können, arbeiten wir aktiv daran, das zu ändern. Das findet bei den meisten Organisationen, die ich kenne, auch schon statt.
Einen großen Vorteil haben wir jedoch in sozialen und gemeinnützigen Organisationen: Wir kennen unsere Mission und unsere Wertebasis (oder sollten sie kennen) und können daher klar die Bereiche benennen, in denen wir generative KI nicht verwenden wollen und werden.
KI braucht enge und gut begründete Grenzen
Wenn eine Organisation beispielsweise Menschen mit Behinderung als Übersetzer*innen für leichte Sprache beschäftigt und das Ziel hat, diesen Menschen Arbeit zu ermöglichen, wird generative KI maximal als Unterstützung für die Übersetzungsprofis zum Einsatz kommen. Eine vollständig KI-basierte Übersetzung ist ausgeschlossen.
Die Begründung hat in diesem konkreten Beispiel zwei Ebenen:
- Es würde gegen die Mission und Aufgabe der Organisation gehen, die Übersetzer*innen durch generative KI zu ersetzen.
- In der Praxis zeigt sich, dass die Expertise und Qualität der menschlichen Übersetzungsprofis der generativen KI deutlich überlegen ist.
Hier wird generative KI nicht ausgeschlossen, sie wird jedoch in enge, fachlich gut begründete Grenzen verwiesen und nur unterstützend eingesetzt.
Genau diese Haltung und Positionierung wünsche ich mir von allen sozialen und gemeinnützigen Organisationen. Was nicht bedeutet, dass alle generative KI nutzen müssen.
Transparente, selbstbewusste und fachlich begründete Grenzen für generative KI schaffen Vertrauen
Eine Organisation kann beispielsweise nach eingehender Prüfung und Test der verfügbaren generativen KI-Systeme zu dem Ergebnis kommen, dass der Nutzen generativer KI den Energieverbrauch, den CO₂-Ausstoß, die Kosten, die ethischen Probleme und mögliche soziale Risiken in der Organisation in vielen Bereichen nicht überwiegt.
Dann ist es aus meiner Sicht eine klare fachliche und strategische Entscheidung, aktuell auf generative KI in vielen Bereichen zu verzichten.
Persönlich würde ich angesichts der berechtigten Bedenken dennoch eigene KI-Systeme, basierend auf offenen Modellen für bestimmte Anwendungen, genauer prüfen. Doch die obige Entscheidung wäre für mich nachvollziehbar, wenn sie klar und transparent kommuniziert wird.
Und genau das sind die drei Aspekte, mit denen wir den sehr bewussten, verantwortungsvollen Einsatz generativer KI, oder den klaren Verzicht auf sie in bestimmten Bereichen, zu einer Chance machen können:
- Welche Grenzen ziehen wir für den Einsatz generativer KI und warum?
- Wo setzen wir generativ unterstützend ein und warum?
- Wie kommunizieren wir das klar und transparent nach innen und außen?
Für unsere Kommunikation in sozialen und gemeinnützigen Organisationen ergibt sich daraus für mich und in meiner Arbeit eine Drei-Punkte-Checkliste.
Drei-Punkte-Checkliste für generative KI in der Kommunikation
- Stammen die Kernaussagen und Inhalte von Menschen und ist das gut erkennbar?
- Sind alle Inhalte, die für die Glaubwürdigkeit der Kommunikation entscheidend sind, von Menschen erstellt?
- Ist klar gekennzeichnet, für welche Aspekte, Aufgaben und Inhalte wir generative KI verwendet haben?
Um diese Fragen fachlich solide beantworten zu können, müssen wir uns im Vorfeld intern damit befassen, wo unsere Grenzen und Regeln für die Nutzung generativer KI liegen. Idealerweise schreiben wir diese dann auch, ähnlich wie Social-Media-Netiquette, auf und machen sie transparent zugänglich.
Eine Einladung zur selbstbewussten, fachlich fundierten Positionierung: Menschen für Menschen
Lange Zeit habe ich für mich KI-Einsatz bei Texten nur dann gekennzeichnet, wenn mehr als 30 Prozent des Textes mit KI-Unterstützung erstellt wurden. Heute mache ich jede KI-Nutzung transparent. Dieser Text hier ist komplett ohne generative KI entstanden.
Zu genau dieser Haltung und vor allem zu einer selbstbewussten Positionierung und aktiven Beschäftigung mit generativer KI lade ich sowohl Kommunikator*innen als auch Fach- und Führungskräfte sozialer und gemeinnütziger Organisationen ein.
Stehen wir zu unseren Werten und Leitbildern, ziehen wir klare Grenzen für den Einsatz generativer KI. Aber lasst uns das nach Testphasen, fachlich begründet und selbstbewusst tun.
Hier passt ein Satz, der mich seit meinem Studium der Sozialen Arbeit begleitet:
Laien treffen Entscheidungen nach Bauchgefühl, Fachkräfte können ihre fachlich fundiert begründen.
Lasst uns das für generative KI in unserer Arbeit und Kommunikation tun. Und dann selbstbewusst und transparent dazu stehen. Dann werden von Menschen für Menschen und verantwortungsvolle Nutzung generativer KI zu echten Chancen in Zeiten von AI-Slop und inflationärer KI-Nutzung.
Leseempfehlungen zu menschenfreundlicher KI
- Generative KI lokal nutzen – Anleitung und Tipps für den Einstieg
- Mehr KI Souveränität durch Kontext-Dokumente
- Generative KI für Soziale Arbeit – Empfehlungen für Expert*innen und Informationsquellen
- Mistral AI und Le Chat im Überblick – europäische KI-Systeme als ChatGPT-Alternative
- Das Potenzial generativer KI für die Soziale Arbeit
- KI-Vermittler*innen in sozialen Organisationen – Eine neue(?) Rolle, die wir jetzt schaffen müssen!


Schreibe einen Kommentar