KI Leitlinien des EWDE: Sicherheit bieten, Erfahrung ermöglichen

Eine Gruppe von vier Personen steht vor einer Wand mit vielen bunten Haftnotizen und diskutiert. Eine Frau zeigt auf die Notizen, während die anderen aufmerksam zuhören. Im Hintergrund ist ein AI-Symbol zu sehen, das auf das Thema künstliche Intelligenz hinweist.

Was darf ich denn eigentlich ausprobieren? Welche Tools sind okay und welche Daten darf ich da eingeben? Diese und ähnliche Fragen tauchen beim Rantasten and generative KI-Tools wie beispielsweise ChatGPT, Adobe Fire Fly, neuroflash oder text.cortex regelmäßig auf.

Werden sie nicht beantwortet, führt das zu Zurückhaltung und Stillstand, gerade in der Wohlfahrt und Sozialen Arbeit.

Nicht weil die Kolleginnen und Kollegen in diesem Bereich Technik- oder KI-feindlich sind, sondern weil sie einen Rahmen brauchen.

Klar und praxistauglich formulierte Leitlinien helfen bei der Orientierung, geben Sicherheit und schaffen die Voraussetzung für Experimente und eigene Erfahrungen.

KI Leitlinien der EWDE: Aus der Praxis für die Praxis

Beim Evangelischen Werk für Diakonie und Entwicklung, kurz EWDE, haben die Kolleginnen und Kollegen das verstanden. Insgesamt 16 Mitarbeitenden haben sich in einem moderierten Prozess aufgemacht, Leitlinien für die Nutzung generativer KI zu entwickeln.

Mich begeistern an diesem Beispiel vor allem drei Aspekte:

  1. Es waren Mitarbeitende verschiedener Fachbereiche und Hierarchiestufen beteiligt.
  2. Es gibt das Programm der Digitalpiloten, das genau für solche Prozesse und Fragen gedacht ist.
  3. Die Haltung, mit der das Team an die Leitlinien gegangen ist.

Letztgenannte formuliere ich in meinen Worten so:

Wir ermutigen und befähigen alle Kolleginnen und Kollegen dazu, sich mit generativen KI-Tools zu beschäftigen. Jede und jeder kann und darf im Rahmen der eigenen Möglichkeiten und der Leitlinien eigene Erfahrungen sammeln, Nutzen, Chancen, Risiken und Grenzen selbst erfahren und Schlüsse daraus ziehen.

Der Sozialpädagoge in mir formuliert das in einem Satz: Wir empowern unsere Mitarbeitenden dazu, generative KI selbst zu erfahren.

Es ist kein Zwang, es ist keine Erwartung und doch werden die Rahmenbedingungen fürs Ausprobieren geschaffen und die klare Einladung ausgesprochen.

Diese Haltung könnten wir in Wohlfahrt und Sozialer Arbeit gerne häufiger einnehmen. Dann natürlich verbunden damit, die Voraussatzung und nötigen Freiräume zu schaffen.

Banner für das Fachcamp Soziale Arbeit. Menschen sind in einer großen Halle versammelt. Informationen auf dem Banner: "Wann: Freitag, 25. Okt. 2024, 09:00 bis 15:30 Uhr. Wo: Gelsenkirchen. Tickets: www.k.sozial-pr.net/fcsoa". Hauptsponsor ist das Sozialwerk St. Georg, organisiert von IdeeQuadrat und Sozial-PR.
Hendrik Epe und ich laden euch zum Fachcamp Soziale Arbeit ein. Zu den Details und der Anmeldmöglichkeit kommt ihr über einen Klick auf das Bild oder über diesen Link zur Eventseite.

KI Leitlinien: Eine Einladung zum Adaptieren und Testen

Johannes und Anja, meine beiden Gesprächspartner/*innen in der Folge des Sozialgespräch Podcasts, formulieren gegen Ende auch eine Hoffnung und Einladung.

Die Hoffnung, dass die vorliegenden KI Leitlinien Fachkräfte, Organisationen und Verbände der Wohlfahrt und Sozialen Arbeit inspirieren und zu eigenen Leitlinien anregen können.

Die Einladung, die Leitlinien der EWDE als Vorlage zu nutzen, von ihnen zu lernen und zu adaptieren, was individuell passt.

Also: Greift zu!

Jetzt viel Spaß mit dem Podcast, unten findet ihr wie immer die leicht editierte Transkription.

Fragen und Feedback gerne in die Kommentare oder per Kontaktformular, Mail oder Messenger an mich oder direkt an Anja und Johannes.

Ich freue mich auf eure Fragen und Kommentare, lasst uns ins Gespräch kommen.

Sozialgespräch Podcast KI Leitlinien der EWDE

Transkription des Podcasts zu den KI Leitlinien der EWDE

[0:00] Christian: Hallo zusammen und willkommen zu einer neuen Folge des Sozialgespräch-Podcasts. Heute geht es um KI. Ja, ich weiß schon wieder, aber nicht um Technik, sondern ich habe zwei Gesprächspartner/*innen da, die Leitlinien für die Nutzung von generativen KI-Tools entwickelt haben für die Wohlfahrt.

Und die, finde ich, so gut gestaltet haben, dass die Mitarbeitenden damit einen sicheren Rahmen haben, der zum Ausprobieren und Testen einlädt und wie das zustande gekommen ist, was da drin steht und warum die beiden sich wünschen, dass ihr, liebe Zuhörerinnen und Zuhörer, die auch verwendet und für euch adaptiert und ausprobiert, ja, das besprechen wir in der Folge.

Lass uns anfangen.

INTRO

[1:07] Hallo und herzlich willkommen zu einem neuen Sozialgespräch Podcast, heute keine Solofolge, sondern ich habe zwei Gästinnen und Gäste, ich glaube, das ist der richtige Begriff, die ich total spannend finde und die sich, wie könnte es anders sein, mit dem Was-wird-Thema-der-Stunde – KI -beschäftigen und zwar im Wohlfahrtskontext.

Ganz herzlich willkommen Anja und Johannes.

Johannes: Hallo Christian.

Anja: Hallo.

Christian: Schön, dass ihr beide da seid, hallo. Ihr dürft euch jetzt erstmal selber vorstellen und unseren Zuhörerinnnen und Zuhörern erklären, wer seid ihr und was macht ihr? Anja, deine Vorstellung bitte.

Anja: Ich bin Anja Remmert und ich bin im evangelischen Werk für Diakonie und Entwicklung seit Sommer letzten Jahres beschäftigt, also seit Sommer 2023. ich bin Pflegekraft von Hause aus, Krankenschwester, habe Berufserfahrung im Krankenhaus, stationäre Pflege, ambulant.

Das alles in verschiedenen Kontexten, sei es in einer praktischen Arbeit am Bett, als Leitungskraft, in einer verbandlichen Vertretung. Und eben seit Juli 2023 arbeite ich bei Diakonie Deutschland und bin dort zuständig für die digitale Unterstützung in der häuslichen Pflege.

[2:20] Das ist ein breites Spektrum. Zum Beispiel der Anschluss der Pflegeeinrichtung an die Telematik-Infrastruktur ist ein Thema, was mich beschäftigt. Oder Online-Beratung ist ein weiteres Thema, mit dem ich mich viel auseinandersetzen darf.

Genau, und in diesem Zusammenhang bin ich jetzt auch mit dem Thema KI in Berührung gekommen.

Christian: Danke für die Vorstellung, Anja. Johannes, deine Vorstellung bitte.

[2:49] Johannes: Ja, mein Name ist Johannes Schunter. Ich bin der Referent für Wissensmanagement im EWDE. Also, kurz zu erklären, das ist die EWDE-Organisation, unter denen die drei Marken laufen. Das ist die Diakonie Deutschland, die Diakonie Katastrophenhilfe und Brot für die Welt. Das sind die drei Marken der EWB.

[3:10] Für diese drei Marken machen wir Wissensmanagement. Das heißt, das ist eine interne Beratungsfunktion, die Teams hilft, mit der Ressource Wissen umzugehen. Wissen sowohl als Input ihrer Arbeit, um Dinge zu tun, und Wissen eben auch als etwas, das wir produzieren für unsere Partner, für die Öffentlichkeit auch, unabhängig von anderen Teams.

Da gibt es viele Mechanismen. Wir haben ja eine Wissensmanagement-Strategie entwickelt, mit verschiedenen Maßnahmen, die wir umsetzen. Und einer dieser Bereiche bezieht sich dabei auch auf KI, weil KI natürlich unheimlich mit Wissen bedeutet.

Vor allem mit großen Texten, mit viel historischem Wissen, Außen- und Öffentlichkeit, aber auch mit TAN. Und damit mit KI umzugehen, ist darum auch eine wichtige Frage für Wissensmanagement. Und damit haben wir uns in den letzten 18 Monaten auch starten müssen.

[4:04] Christian: Ja, dann haben wir also schon, liebe Zuhörerinnen und Zuhörer, die Kombination, ihr hört es, digitale Anwendung, Pflege- und Praxisbereich, Wissensmanagement für die Organisation.

[4:14] Beides liegt nah an KI, würde ich jetzt mal sagen. Lass uns, Johannes, doch mal mit deiner Rolle und dem ganzen Prozess so ein bisschen und vor allem der Genese des Prozesses einsteigen. Also wie ist das zustande gekommen? Weil, sag mal ehrlich, viele nutzen und testen ChatGPT und Co. gerade natürlich.

Wenn ihr das hört, liebe Zuhörerinnen und Zuhörer, wir nehmen heute am 14. Mai auf für euch als Kontext. Gestern hat ChatGPT sein GPT-4.0 vorgestellt, also sein neues Modell. Da ändert sich nochmal einiges. Aber ihr seid ja generell herangegangen. Wie seid ihr auf die Idee gekommen, Leitlinien zu entwickeln, statt in Anführungszeichen einfach nur zu machen? Wie kam es dazu?

Johannes: Ja, also das Thema ist für uns alle neu, aber tatsächlich gibt es ja KI schon sehr lange nicht. Ich war vor dem EWDE 15 Jahre lang mit den Vereinten Nationen unterwegs im Entwicklungsbereich. Und es war schon länger klar, dass KI irgendwann eine große Rolle spielen würde für den Umgang mit Wissen.

Aber es war nie reif für Primetime. Das heißt, es war eigentlich irgendwie ein Forschungslabor. Und es hat sich geändert mit der Veröffentlichung von ChatGPT im November 2022.

[5:21] Und als wir das gesehen haben, waren wir sofort klar, okay, wir sind soweit. Wir haben sofort in der Woche danach Briefings gemacht, um einfach nur ein Bewusstsein zu schaffen, hey, das passiert. Das ist was Großes. Das wird einen großen Impact haben für die Art und Weise, wie wir arbeiten.

Und seitdem haben wir regelmäßig Briefings durchgeführt, einfach nur um den Leuten zu zeigen, das können diese Tools, vor allem ChatGPT in dem Fall. Das war vor und dann. Und wie können wir das für die Arbeit nutzen?

Weil die Möglichkeiten gibt es. Und dann haben natürlich die Leute angefangen, das selber zu nutzen. Das war ja auch öffentlich verfügbar, aber auch kostenlos. Und es gab keinerlei Regeln, ob man es nutzen kann oder nicht. Und die Fragen sind dann eben entstanden.

Also dürfen wir diese Werkzeuge im Werk überhaupt nutzen? Unter welchen Bedingungen dürfen wir sie nutzen?

[6:10] Müssen wir es jetzt alle nutzen? Also nicht jeder ist so technikaffin, dass er jetzt Lust hat, diese neuen Tools sofort auszuprobieren. Nur das ist jetzt ein Zwang. Welche Nutzung ist denn ethisch und sicher?

Und was ist nicht ethisch, was ist nicht sicher? Da gibt es viele Fragen, auch gerade zum Datenschutz. Und es gab noch keine offizielle Verlautbarung, wie wir damit umgehen wollen, weil es eben auch so neu war. Und darum war klar, wir müssen ausprobieren, wir müssen aber auch an einem bestimmten Punkt irgendwelche Leitplanken formulieren, die uns helfen, abzugrenzen, welche Art von Nutzung ist okay und welche Art von Nutzung wollen wir vielleicht lieber nicht.

Und auch diese Leitplanken nicht in dem Maße so mit dem Hammer, hey, nee, das darfst du nicht, sondern als ein gemeinsames Grundverständnis, so wollen wir arbeiten und so wollen wir nicht arbeiten, weil es uns eben so gut tut und so hilft und so tut es uns und unseren Partnern nicht gut und so führt es Schaden zu.

Und da wurde dann von offizieller Seite nach einem halben Jahr, nachdem wir verschiedene Leute mit JetGPT und anderen Tools experimentiert haben, wurde ein offizieller Prozess aufgesetzt.

[7:19] Mit verschiedenen Leuten aus dem Haus, mit einem Mandat von der Führungsebene, diese Leitlinien zu entwickeln. Und zwar Leitlinien nicht im Sinne von arbeitsrechtlich durchsetzbaren Richtlinien und Anweisungen, sondern eben Leitlinien. Das heißt, die haben Empfehlungscharakter.

Da haben sich diese Gruppe im Sommerland gefunden, zwei Monate zusammengearbeitet, wöchentlich getroffen, diese ganzen Fragen, die ich vorhin genannt habe, durchgesprochen und im Pro und Kontra abgewogen und geschaut, wie können wir das einhängen, wie können wir es formulieren, dass wir sowohl ermächtigen, aber gleichzeitig das Schlimmste verhindern, sozusagen.

Dann haben wir einen Entwurf gehabt, nach zwei Monaten, den haben wir der Belegschaft zur Diskussion gestellt. Wir haben ein Intranet, ein Social Intranet, wo wir uns Diskussionen treffen können, verletzen können, unterhalten können. Da haben wir Feedback eingeholt und das Feedback wiederum eingebaut und dann haben wir eine Version gehabt, die wir dem Vorstand vorstellen konnten, die das dann auch im März jetzt verabschiedet hat.

[8:21] Christian: Eine Frage noch. Ich habe in meinen Notizen noch stehen, dass dieser Prozess im Haus was mit dem Konzept Digitalpilot zu tun hat. Kannst du da auch nochmal kurz eingehen? Weil ich glaube, das ist auch so was, so eine Idee, so einen Prozess aufzusetzen, kommt ja nicht von ungefähr. Das hat ja auch eine Struktur gehabt.

Johannes: KI ist ja nur ein Element der kompletten digitalen Transformation. Da passiert aber sehr sehr viel in den letzten Jahren und das hat uns auch beschäftigt in EWDE und da wurde die Idee entwickelt, dass wir diese informellen Arbeitsgruppen ad hoc zusammenstellen können, um sich mit einem bestimmten digitalen Transformationsthema mal konzentriert zu beschäftigen und Vorschläge zu erarbeiten, wie wir damit umgehen.

Und wir haben die Piloten genannt, Digitalpiloten, nämlich mit der Idee, sehr, sehr agil und flexibel mal etwas auszutesten und zu schauen, funktioniert das in der Praxis mit ein paar Leuten.

[9:17] Um dann, wenn es funktioniert, das hochskalieren zu können. Da gab es was zum Onboarding digital, da gab es was für den digitalen Führerschein, Digital Literacy, Schulungsthemen, alles, was den Leuten abverlangt, digital etwas verdauen zu müssen, weil sich sehr schnell viel verändert.

Und natürlich war KI prädestiniert dafür, auch im Rahmen eines solchen digitalen Noten erarbeitet zu werden. Was im Grunde nicht anderes sind als agile Arbeitsgruppen, die temporär etwas erarbeiten.

[9:49] Christian: Danke dir. Das heißt, da gibt es eine Struktur, die dafür gemacht ist, sage ich jetzt mal, neue digitale Themen auch zu gründen und zu erforschen irgendwie und sich praktisch anzuschauen.

In dem Fall, hast du auch gesagt, war es eine Gruppe von 16 Mitarbeitenden, die auch mit Mandat und Auftrag der Führungsebene ja sich diesen Entwurf erarbeitet haben, sage ich mal. Ich nehme mal an, du warst eine von diesen Mitarbeitenden, logischerweise, sonst würden wir wahrscheinlich nicht miteinander sprechen.

Deine Arbeit, ich habe es vorher schon gesagt, mit digital liegt schon nahe an KI, aber gefühlt, widerspricht mir gerne, ist es jetzt kein natürlicher Weg, unbedingt sofort in so einer Gruppe sich zu beteiligen und da am Start zu sein und da unbedingt auch Lust drauf zu haben, zu sagen, ich will für KI mir die Sachen angucken, Leitlinien mitentwickeln.

Kannst du uns einmal so mitnehmen, was hat dich motiviert und wie ist es abgelaufen überhaupt, dass die 16 da zusammenkamen und in diesem Prozess gestartet seid?

[10:45] Anja: Ja, gerne. Du hast völlig recht. Als Digitalbeauftragte für die Pflege ist das Thema KI nicht unbedingt der Schwerpunkt meiner Tätigkeit, obwohl es natürlich Berührungspunkte gibt.

Ich habe es vorhin erwähnt, im Sommer letzten Jahres bei Diakonie Deutschland meine Tätigkeit aufgenommen habe, habe ich Kontakt bekommen zu den anderen oder einen Teil der anderen im EWDE, also im Evangelischen Werk für Diakonie und Entwicklung, beschäftigten Mitarbeitenden, die mit Digitalisierungsthemen beschäftigt sind, in anderen Kontexten als ich. Und Johannes und andere waren damit beschäftigt, diese Arbeitsgruppe, die er gerade beschrieben hat, zusammenzustellen.

[11:35] Mein Name ist da irgendwann gefallen. Anja hat offenbar auch irgendwas mit Digitalisierung zu tun und außerdem kommt sie von Diakonie Deutschland, weil das war in unserer Arbeitsgruppe, die sich dann konstituiert hat, schon die Idee, aus den verschiedenen Bereichen des EWDE Beschäftigte einzubinden. Johannes hat es schon beschrieben, also das EWDE besteht aus den Marken Brot für die Welt, Katastrophenhilfe der Diakonie und Diakonie Deutschland und abgesehen davon gibt es natürlich auch zentrale Dienste im Werk, die sich mit so generellen Fragestellungen wie Strategie oder Wissensmanagement auseinandersetzen.

Und aus allen Bereichen sollten Menschen vertreten sein, so auch aus der MAV, also der Mitarbeitendenvertretung. Die IT sollte auch mitbeteiligt werden aus naheliegenden Gründen. Genau, und so ist es dazu gekommen, dass ich als Beschäftigte bei Diakonie Deutschland und irgendwie mit Digitalisierung befasste, hier in dieser Arbeitsgruppe mitwirken konnte.

[12:44] Christian: Wunderbar, danke dir. Das heißt im Grunde ein organischer Weg da rein, so ein bisschen aus Aufgabe, aber auch Interesse gespeist, eine Affinität, interpretiere ich mal. Jetzt habt ihr das Ganze ja angefangen zusammen und seid in diese Gruppe gegangen. Mich würde es interessieren, wie lief denn dann die konkrete Arbeit ab?

Weil Prototypentwicklung, Entwurfsarbeit klingt natürlich toll, aber da habe ich jetzt alle möglichen Bilder im Kopf von der Gruppe, die bis spät in die Nacht irgendwie um den Tisch sitzt und diskutiert mit Papier auf dem Tisch, bis hin zu irgendwie Zoom-Konferenzen. Könnt ihr uns da mal mitnehmen, wie hat eure Zusammenarbeit konkret ausgesehen, dieser Prozess, damit Leute auch mal ein Bild davon haben, was ist da eigentlich passiert?

Anja: Dieser Prozess lief aus meiner Sicht als AG-Teilnehmende und nicht Leitenden ziemlich gut und beispielhaft. Also Johannes hat mit einem Kollegen diese Sitzung vorbereitet. Wir hatten für jede Sitzung, so meine Wahrnehmung als AG-Teilnehmende, klare Fragestellungen. Womit wollen wir uns beschäftigen?

Die Sitzungen waren einmal die Woche, unterbrochen von Ferien, Urlauben, aber im Prinzip einmal die Woche über einen längeren Zeitraum. Und wir hatten immer nur eine Stunde Zeit, in der wir hochkonzentriert in unserer Runde digital zusammengesessen haben und uns immer mit einem, ja, dem für heute wichtigen Thema beschäftigt haben.

Also Brainstorming unterstützt mit Concept Board, wo die Ergebnisse festgehalten worden sind von Meeting zu Meeting. Und diese Sitzungen wurden auch so meine Beobachtung dann von den Leitungen, also Johannes und unserem anderen Kollegen, vorbereitet, nachbereitet, sodass wir in die nächste Sitzung genauso gut vorbereitet wieder hineinsteigen konnten.

[14:41] Christian: Dankeschön. An der Stelle, Johannes, würde ich ganz kurz deine Perspektive noch reinholen wollen, weil Anja hat ja gerade gesagt, sie hat als Teilnehmender das Ganze sehr positiv erlebt.

Wie war denn so deine Perspektive als jetzt einer von dem Leitungsteam, das das Ganze unterstützt oder auch gemanagt hat? Wie lief es denn aus eurer Sicht, der Prozess?

Johannes: Ja, das Anliegen von mir und meinem Kollegen Tobias Traut aus dem strategischen Management war tatsächlich, die Würde für unsere Teilnehmenden gering zu halten, sodass sie voll produktiv in der Session da sein konnten und wir in der Zwischenzeit quasi die nötige Scheinarbeit für die Leute machen können.

Wir haben versucht zu operieren. Wir haben erstmal in einer ersten Session gebrainstormt, welche Themen wollen wir überhaupt behandeln. Fragen wie Datenschutzkammern hoch und Fragen wie Bias und Fragen wie Handelssituationen. Alles, was den Leuten einfiel, einfach an die Wand geworfen.

[15:38] Und dann haben wir das ein bisschen strukturiert und ordnungsgemäß. Geht es hier um Prinzipien, geht es um Handlungsanweisungen, geht es um Gefahrenpotenziale. Und als wir diese Struktur hatten, haben wir dann in den nächsten nachfolgenden Sessions wiederum detaillierte Brainstormings gemacht. Okay, zu dem Thema Datenschutz. Was wäre uns denn hier drin wichtig?

[16:00] Welche Elemente sollen hier auftauchen in einer Live-Linie und welche vielleicht auch nicht? Die haben wir dann auf einem separaten Board gepaart. Für spätere Bearbeitung. Und dann in einer weiteren Session haben die Leute eine konkrete Formulierungsvorschläge gemacht.

Also, wenn es um diese fünf Punkte im Datenschutz geht, wenn ich die Leitlinie selber schreiben würde, wie würde ich es denn formulieren? Und dann hatten wir plötzlich eine Reihe an alternativen Vorschlägen für Formulierungen und die haben wir dann versucht zusammenzubringen. Daraus wieder zwischen den Wochen quasi Kompromissformulierungen zu finden, die wir dann mit der gesamten Runde diskutiert haben und so nach und nach haben wir uns dann dem Workload angemessen.

Man kann sich so ein bisschen vorstellen, wie der Prozess, wenn eine Web-Resolution formuliert wird, ganz viel hin und her und es wird an einzelnen Worten gespalten, um das einzufangen, was den Konsens der Drucker auch widerspiegelt. Also das war sehr spannend, aber oftmals auch mit Arbeit verbunden, logischerweise.

Das haben so gute Ergebnisse ja an sich. Ohne Arbeit wird das tatsächlich nichts. Danke dir, Johannes. Anja, in deiner Richtung nur kurz die Frage. Johannes hat gerade von Themen gesprochen, die auch definiert hat, worum es ging.

[17:14] Christian: Jetzt hast du die drei Marken erwähnt. Ich bin mir aber recht sicher, ihr arbeitet ja auch mit sehr vielen Partner/*innen und Partnerorganisationen und Co. irgendwie zusammen. Das waren ja auch verschiedene Bereiche vertreten.

Aus deiner Sicht als Teilnehmende, gab es denn Themen, wo es vielleicht keine so klare, einhellige Meinung gab, sondern wo ihr tatsächlich auch noch länger arbeiten musstet, um eine Kompromissformulierung zu finden? Fallen dir da spontan Themen ein, wo du sagst, ja, da hingen wir ein bisschen länger dran?

[17:41] Anja: Ja, auf jeden Fall. Eine Frage war eben, die sich so ein bisschen durchgezogen hat und dann an verschiedenen Detailfragen dann noch konkretisiert werden musste, wie frei sind die Mitarbeitenden im Ausprobieren?

Also auf der einen Seite, die Mitarbeitenden sollen befähigt werden, auch die Tools zu nutzen und damit umgehen zu können Und auf der anderen Seite aber auch, wie kann Schaden abgewendet werden vom evangelischen Werk für Diakonie und Entwicklung und für die Mitarbeitenden und für die Partnerorganisationen, mit denen wir zusammenarbeiten.

Und das war so das Spannungsfeld, in dem wir uns häufig bewegt haben. Also darf ich als Mitarbeitende beispielsweise zwar frei mit irgendwelchen KI-Tools arbeiten, muss dafür aber die vom Unternehmen bereitgestellten Anwendungen nutzen oder kann ich einfach frei mit möglicherweise Privataccounts oder gar keinen Accounts irgendwas ausprobieren?

Das ist zum Beispiel eine der Fragestellungen. Oder wie gehe ich damit um? Darüber haben wir auch viel gesprochen. Wenn ich KI einsetze in der Arbeit, wie transparent mache ich das gegenüber Dritten?

[19:09] Möglicherweise auch gegenüber Organisationen, um die Informationen über Organisationen, die ich mit KI vielleicht auch bewertet habe. Das war ein weiteres Thema, mit dem wir uns beschäftigt haben. Also wie deutlich mache ich, dass ich KI genutzt habe, um auch Bias verhindern zu können, möglicherweise?

[19:37] Christian: Dankeschön. Wir haben jetzt die Entwicklung und die Geschichte gehört, die finde ich immer sehr spannend, vor allem auch den Arbeitsprozess. Ich bin mir aber relativ sicher, die Zuhörerinnen und Zuhörer interessiert jetzt auch, was steht da eigentlich drin und was verfolgt diese Leitlinie als Ziele und was steckt da tatsächlich inhaltlich drin?

Was wir nicht machen werden, das nur als Hinweis, die ganze Leitlinie jetzt durchgehen, A) wegen der Zeit und B) ihr sollt die ja auch noch selber lesen, liebe Zuhörerinnen und Zuhörer, schon klar.

[20:03] Aber Johannes und Anja haben die ja aktiv entwickelt und deswegen die Frage, Johannes, wir starten bei dir, was sind denn die Ziele und auch die Kernprinzipien, die aus deiner Sicht wichtig sind für die Leitlinien?

[20:15] Johannes: Also das oberste Ziel für uns war wirklich, den Mitarbeitenden Orientierung zu bieten, wie im Haus mit den Tools ethisch und sicher umgegangen werden kann. Und es sollte kein Gesetzestext sein, es war auch nicht unser Mandat, also es ist keine Dienstvereinbarung oder Richtlinie, sondern eine Rahmenempfehlung.

Man kann es vergleichen wie mit einer UN-Resolution. Die entfaltet eine normative Kraft, lässt sich aber rechtlich nicht durchsetzen. Und so ähnlich ist es auch. Es sollte ein Grundverständnis schaffen, so wollen wir arbeiten. Das heißt auch, es muss ein knappes Dokument sein. Keine 20 Seiten Regularien, sondern knackig drei Seiten, die man auch leicht verdauen kann, die aber gleichzeitig Gefahrenpotenziale benennt und Empfehlungen macht, wie diese umschifft werden können.

Und was uns auch sehr schnell klar war, ist, dass wir eine Abwägung finden müssen zwischen diesen beiden gegensätzlichen Polen. Sicherheit auf der einen Seite und dieser Ermächtigungsgedanke und die Nutzbarkeit auf der anderen. Und es war sehr schnell klar, beides ist zu 100 Prozent nicht möglich. Wir brauchen einen Progromiss. Wenn wir es ganz sicher machen wollen, dann verbieten wir es einfach pauschal. Dann passiert nichts Schlimmes.

Dann passiert aber leider auch nichts, weil dann lernt niemand irgendwas und dann kommen wir nicht voran. Und dann haben wir auch keinen Zugang zu dem großen Potenzial, das die Tools bieten.

[21:35] Gleichzeitig können wir nicht sagen, ach, jeder arbeitet mit den Tools wie er oder sie will. Weil dann öffnen wir die Tür für Datenunfälle und für Missbrauch und für möglichen Schaden für den Partner und für uns selber. Und deshalb Deshalb, das war das Hauptsächliche, dass wir diese Gradwanderung hinbekommen, diese Abwägung.

Wir glauben, mit diesem Framework haben wir was, wo wir 80 Prozent der Risiken abfangen, indem wir uns nur auf ein paar wenige Dinge beschränken, wo wir wirklich sagen, das und das sollten wir nicht tun. Und damit aber das Potenzial für Ermächtigung maximieren.

[22:12] Christian: Das heißt, ihr wolltet im Grunde, was der Name Leitlinie auch vermittelt, so ein bisschen Leitplanken und einen sicheren Rahmen schaffen, in dem sich Mitarbeitende sicher bewegen können, ohne sich Gedanken machen zu müssen: Muss ich jetzt jemanden fragen? Überschreite ich gerade Grenzen?

Und ich weiß, was darf ich tatsächlich in dem Rahmen tun, ohne dass diese Entscheidung bei mir als Individuum liegt. So klingt das für mich auf jeden Fall.

Anja, aus deiner Sicht, was gibt es noch für Prinzipien oder Schwerpunkte, wo du sagst, wie sind die auch noch zusätzlich zu dem, was Johannes gesagt hat, sehr wichtig?

Anja: Also der übergeordnete Gedanke ist natürlich, der Einsatz von KI soll grundsätzlich den Zielen des EWDE dienen. Also das Ausprobieren ist schön, aber es soll den Zielen, die wir uns als Organisation gegeben haben, dienen. Eine häufig geäußerte Sorge im Zusammenhang mit künstlicher Intelligenz ist ja, sollen die Mitarbeitenden nun.

[23:14] Ängste ersetzt werden, aber das ist eben gerade nicht unser Gedanke gewesen, sondern sie sollen in die Lage versetzt werden, diese Instrumente zu nutzen in einer vernünftigen Art und Weise. Also dieser Angst soll begegnet werden auch, dass man ersetzt wird durch unsere Leitlinien.

Es gibt bestimmte Aufgaben, bei deren Einsatz künstliche Intelligenz die Arbeit erleichtern kann, manchmal vielleicht auch erst ermöglichen kann. Das unterscheidet sich sicherlich von Organisation zu Organisation.

[23:51] Was für Einsatzszenarien es da gibt und hier auch möglicherweise zwischen unseren drei Marken, Katastrophenhilfe, Brot für die Welt und Diakonie Deutschland. Aber insgesamt soll der Aufwand minimiert werden für Tätigkeiten, die sich wiederholen.

Und was uns immer wieder beschäftigt hat in unseren Diskussionen ist, wir wollen als Organisation hier gemeinsam lernen, selbstverantwortlich lernen und Neugierde darf sein, ist gewünscht. Und die Nutzungserfahrung beim Ausprobieren wollen wir teilen untereinander mit den anderen Mitarbeitenden. Was uns auch wichtig war, ich hatte es vorhin auch schon kurz angesprochen, ein transparenter Umgang.

Also wenn wir sagen, dass wir, wenn wir KI genutzt haben und Texte veröffentlichen, dann werden wir das auch als solches kennzeichnen. Das ist in unserem Verständnis von Wahrhaftigkeit und Transparenz als EWDE wichtig.

[25:00] Christian: Danke, Anja. Also das heißt, es geht auch darum, Transparenz zu schaffen und deutlich zu machen, auch Partner und Öffentlichkeit gegenüber. Wo habt ihr KI genutzt und wo war es nur der Mensch in Anführungszeichen? Einfach um da auch Vertrauen wahrscheinlich herzustellen und möglich zu machen.

Johannes, jetzt hast du ja eine etwas andere Perspektive als Referent Wissensmanagement. Welche Empfehlungen, die da drinstehen, sind aus deiner Sicht besonders relevant oder würdest du gerne betonen wollen?

[25:27] Johannes: Ja, also wenn wir diese Werkzeuge nutzen, um neue Inhalte zu generieren, dann muss schon klar sein, dass ich derjenige bin, der am Ende für diese Inhalte verantwortlich ist. Klar kann ich mir helfen lassen und ich nutze die KI als Kollaborationspartner idealerweise.

Ich muss aber diese Ergebnisse prüfen, weil ich mich auch nicht darauf verlassen kann. Wir wissen das, es gibt Annotationen, es gibt vielleicht auch einen Kontext, der nicht wirklich erfasst wurde. Oder am Ende muss ich das als Supervisor, wie bei einem Praktikanten oder einer Praktikantin, die mir zugearbeitet hat, muss ich beurteilen, kann ich mit diesen Ergebnissen was anfangen, wie verarbeite ich sie, wofür nutze ich sie und ich muss dafür gerade stehen, wie ich sie weiter benutze.

Gleichzeitig gehen damit einher, dass ich die auch in Hinblick darauf prüfen muss, auf möglichen Bias und Möglichkeit von Diskriminierung. Wenn klar ist, wo kommen diese Informationen alle her? Die kommen aus Daten von Menschen und Menschen haben Bias. Texte, die Menschen geschrieben haben, enthalten Bias und damit hat auch die KI so einen Bias.

Nicht nur das, die KI verstärkt diesen Bias noch mehr, weil die KI immer in statistischen Wahrscheinlichkeiten arbeitet.

[26:41] Und statistische Wahrscheinlichkeit erzeugt Stereotype. Und Stereotype ist genau das, was sie vermeiden wollen, wenn wir über Inhalten reden. Das heißt, da müssen wir immer sehr genau drauf schauen. Da müssen wir die Leute sensibilisieren. Und im Endeffekt muss ich das für mich prüfen, wie ich es weiter verwende und ob dabei ist, wenn es oder nicht. Und dann natürlich auch die Kennzeichnung, wie die Anja schon gesagt hat.

[27:04] Ja, das heißt, ich muss mir bewusst sein, wo die Grenzen liegen und das menschlich ausgleichen, wenn ich es nicht richtig verstehe. Das heißt, ich darf sie nicht einfach blind verwenden, sondern es hat Werkzeuge mit mehr oder weniger starken Vorurteilen oder Biases drin.

Es wird ja oft diskutiert, welche Art von Daten darf ich denn verwenden mit KI Tools? Und da gibt es ganz viele komplizierte juristische Antworten.

Christian: Natürlich habt ihr aber in den Leitlinien eventuell so eine Empfehlung, die auf den Punkt bringt, mit welchen Art von Daten darf ich denn arbeiten? Etwas, was auch unsere Zuhörerinnen und Zuhörer vielleicht mitnehmen können als Orientierung für sich, was ihr empfehlt auch vielleicht in der Leitlinie.

Johannes: Ich fange nochmal an zu den Vorgaben, die einzuhalten sind aus unserer Sicht, auf die wir uns auch beziehen in unseren Leitlinien, die wir entwickelt haben. Unser wichtigster Punkt ist, dass keine sensiblen Daten über unsere Organisation, über Partner oder einzelne Individuen eingegeben werden sollen, dürfen bei der Nutzung von KI. Weil wir sehen ansonsten eine Gefahr für die Privatsphäre von Menschen.

[28:15] Einzelnen Individuen, aber auch für unseren eigenen Ruf, möglicherweise auch für Partner in Regionen dieser Welt, die zu schützen sind in ihrer Arbeit für die Diakonie. Und wir haben uns von daher die Regeln gegeben, dass wir keine personenbezogenen Daten eingeben wollen, natürlich auch nichts zu finanziellen Transaktionen, zu Bilanzen, keine Gesundheitsdaten, keine Kommunikation mit Partnern soll nach außen dringen, die wir ja schützen wollen und natürlich auch keine Vertragsunterlagen, die intern sind.

Wenn ich da noch hinzufügen kann, wir haben das mit E-Mail eigentlich ganz gut gelernt. Mit E-Mail besteht das Risiko ja auch immer, dass irgendwelche sensiblen Daten nach außen gehen. Wir haben über die letzten 20 Jahre, 30 Jahre aber gelernt, dass bestimmte Daten im Haus bleiben sollten. Und bevor ich etwas nach außen gebe, dann frage ich die Person, von der die Informationen stammen, hey, kann ich das weiterleiten?

[29:26] Da haben wir ein Gefühl dafür, wie wir damit umgehen. Bei KI müssen wir das erst noch lernen. Da haben wir noch kein Gefühl. Aber als Faustregel kann der Umgang mit E-Mail in der Orientierung sein. Darum haben wir das auch so formuliert in der Leitlinie. Gehen nur Dinge in so ein externes KI-System ein, die du problemlos per E-Mail an unbeteiligte Tritte weiterleiten könntest, ohne vorher die Quelle der Informationen um Erlaubnis zu bitten.

Und, sag ich mal, wenn wir uns daran halten können, fangen wir 90%, 95% der Dinge ein und entwickeln gleichzeitig über die Zeit hinweg ein Gefühl für was Angemessenes und was Nichts.

Christian: Finde ich einen guten Ansatz. Ich glaube, die klaue ich mir, wenn ich darf. Danke euch beiden für den Inhalt. Ich schaue ein bisschen auf die Uhr. Anja hat einen Anschlusstermin. Ich wollte auch nicht zu lange belagern.

Diese Leitlinie hat 29 Punkte. Die aus eurer Sicht wichtigsten haben wir jetzt gehört. Ich würde gerne noch so ein bisschen den Blick nach vorne werfen. Das Ding ist jetzt in der Welt, ist schon eine Weile veröffentlicht.

Jetzt stellt sich so ein bisschen die Frage, was ist denn eure Hoffnung, Wunsch, nennen Sie es wie ihr wollt, was damit passiert und was für Auswirkungen haben kann überhaupt diese Leitlinie? Also was würdet ihr euch wünschen oder hoffen, was sie tut als Wirkung?

Anja, da gebe ich mal das Wort an dich. Was ist so deine Hoffnung, was die Leitlinie bewirken kann?

[30:46] Anja: Also die Leitlinie als solche steht ja in einem Kontext in unserer Organisation, die beispielsweise ja auch dieses Wir-Lernen-als-Organisation gemeinsam beinhaltet. Und hier erhoffe ich mir mehr Erfahrung, Wissen, Inspiration darüber, wie der Einsatz von künstlicher Intelligenz mich, meine KollegInnen bei der Arbeit unterstützen kann. Wir haben alle unterschiedliche Aufgaben, es gibt alle möglichen Tools.

[31:19] Wie kann für den Einzelnen die einzelne KI bei der Arbeit unterstützend wirksam sein? Das muss man, glaube ich, ein bisschen ausprobieren und sich an den verschiedenen Arbeitsplätzen der Frage langsam nähern. Und je mehr Personen bei uns im Werk diese Tools nutzen, umso mehr werden wir alle lernen, wie sie uns bei der Arbeit unterstützen können, wie wir sie am praktikabelsten einsetzen können unter Beachtung der Leitlinien.

Das betrifft natürlich erstmal Sprachmodelle, aber hier gibt es auch viele weitere Einsatzmöglichkeiten von künstlicher Intelligenz und hier würde ich mir wünschen, wenn wir die auch noch stärker mitdenken, als wir das vielleicht bisher tun, die anderen Einsatzmöglichkeiten von KI, die es auch gibt, mitdenken.

[32:19] Dann gibt es natürlich auch noch KI-Modelle, die auf aktuelles Wissen Zugriff haben und KI-Modelle, die auf in der Vergangenheit irgendwann einmal angefüttertes Wissen, aber nur bis zu Datum XY angefüttertes Wissen Zugriff nehmen können. Und hier ist es, glaube ich, für das Unternehmen, für die einzelnen Mitarbeitenden auch gut und wichtig zu lernen, da zu unterscheiden, was kann ich von dem einen erwarten, was kann ich von dem anderen erwarten.

Ja, ich wünsche mir natürlich, dass die Leute mehr Sicherheit gewinnen und wissen, so können wir gerade in diesem Rahmen, ist es okay und dass dadurch eben auch mehr Leute anfangen, gerade Sprachmodelle zu nutzen für ihre Wissensarbeit. Vielleicht auch gerade diejenigen, die sich bisher eher noch gescheut haben, weil es noch keinen offiziellen Rahmen gab, innerhalb denen das klar kommuniziert ist. Jetzt gibt es das und damit geben wir Leuten hoffentlich Sicherheit.

[33:22] Johannes: Ich würde mir wünschen, dass andere Organisationen das sehen natürlich und dadurch auch sich ermutigt fühlen, vielleicht selber die eigenen KI Leitlinien zu entwickeln, weil sie sehen, dass eine sinnvolle Nutzung von KI möglich ist für jede Organisation, wenn man sich einen gewissen Rahmen gibt und innerhalb dieses Rahmens operiert.

Christian: Das wäre fast schon ein schönes Schlusswort, ist noch nicht ganz fertig, aber das finde ich einen sehr schönen Appell. Und liebe Zuhörerinnen und Zuhörer, ich nehme das, was Johannes gerade gesagt hat, jetzt einfach auch Appell an euch, die ihr gerade zuhört.

Ich glaube, ihr seid überhaupt nicht böse, sondern freut euch eher, wenn andere sich die Leitlinie mal zu Gemüte führen und vielleicht auch dann sagen, was adaptieren wir davon für die eigene Organisation? Ich glaube, da kann das auch eine echt wichtige Ressource sein. Deswegen Einladung an alle, die gerade zuhören.

[34:09] Beschäftigt euch mal damit und schaut mal, was ihr davon nutzen könnt. Da steckt einiges drin, glaube ich, für eure eigene Arbeit tatsächlich.

[34:16] Und, das ist eine Frage an Johannes und Anja, aber ich bin mir relativ sicher, ihr freut euch auch, wenn es Feedback gibt von Leuten, die das dann umsetzen und nutzen potenziell, wie es bei ihnen wird. Da seid ihr, glaube ich, nicht böse. Ich sehe zustimmendes Nicken, sehr schön.

Zum Abschluss habe ich immer meine Standardfrage dabei. Ich gucke ein bisschen auf die Uhr, das passt wunderbar auf den Timing. Und diese Standardfrage lautet, worüber haben wir denn noch nicht gesprochen, was euch noch wichtig wäre, tatsächlich? Also, was würdet ihr uns gerne noch mitgeben wollen?

Anja: Also ich muss sagen, dass ich sehr angetan davon bin, wie in meiner Organisation der Kirche, was jetzt nicht unbedingt sonst als Vorreiter, was Innovation angeht, angesehen wird, wie wir mit KI umgehen. Und dass wir hier eine Leitlinie erarbeitet haben, macht mich auch ein bisschen stolz, muss ich sagen.

Und ich erzähle das gerne und alle Menschen, denen ich das erzähle in meinem Bekanntenkreis, kein Mensch hat dort an seinem Arbeitsplatz solch eine Leitlinie bislang. Das mag an meinem Bekanntenkreis liegen, aber auch in Industrie und verschiedenen Bereichen der Wirtschaft in unserem Land, alle Menschen, mit denen ich spreche, da muss ich sagen, sind wir ziemlich vorne dabei. Und das finde ich, darf man auch mal erwähnen.

[35:40] Christian: Definitiv. Dankeschön. Johannes, was willst du uns noch mitgeben?

Johannes: Ich glaube, was mir wichtig ist, ist, dass wir gesehen haben, dass Abwarten oder gar Verbieten einfach gar keine Optionen sind. Wir können diese Fragen, die uns da alle beschäftigen, nicht in der Theorie beantworten, in den Elfenbeintoren, sondern nur dann, wenn wir uns mit diesen Werkzeugen in der Praxis auseinandersetzen und das ausprobieren.

Dann reden wir, was es für die eigene Arbeit tun kann. Das kann mir kein, nicht mal ein Trainer erklären, das kann mir irgendeine KI nicht erklären, denn die kennen meine Arbeit nicht und den Output, den ich hier produzieren muss. Nur ich kann es beurteilen, deshalb muss es auch ich ausprobieren und erst in diesem Ausprobieren genügen wir eine Erfahrungskompetenz, die uns sprachfähig macht, uns überhaupt am Diskurs zu beteiligen.

Sei es am Diskurs innerhalb der Organisation, wie wollen wir das nennen, aber eben auch am Diskurs in der Gesellschaft, der ja gerade stattfindet. Wie wollen wir als Gesellschaft damit umgehen?

[36:40] Und das finde ich enorm wichtig. Das betrifft ja unsere Demokratie. Dieses Thema wird Einzug halten in den Wahldepart. Deshalb müssen wir eine Position dazu finden. Die finden wir nicht in der theoretischen Diskussion. Die finden wir nur im praktischen Ausprobieren und Lernen, was diese Tours können und auch wo ihre Limitierungen und Gefahrenpotenziale sind. Und darum die Ermutigung an jeden und jede, sich persönlich praktisch damit zu beschäftigen.

In unseren internen Trainings nutzen wir immer dieses Bild der Welle. Die Welle ist da, sie wirkt auch bedrohlich, sie rollt auf uns zu und wir können uns versuchen, wegzuducken oder wegzurennen. Das ist aber keine Option, denn dann lernen wir über Rollen und wir schnappen nach Luft.

[37:24] Stattdessen macht es Sinn, sich die Welle anzuschauen, ihre Dynamik gut zu verstehen, sodass wir uns im richtigen Moment ein Surfbrett schnappen und die Welle leiten können und dann rausfinden, wohin sie uns trägt, an Orte, wo wir vorher noch nicht waren.

Christian: Das war wirklich ein sehr schönes Bild zum Abschluss. Danke dafür. Die Welle nehme ich mit. Liebe Zuhörerinnen und Zuhörer, in diesem Sinne würde ich sagen, lasst uns die KI-Welle doch aktiv surfen. So würde ich jetzt den Appell mitnehmen. Ihr findet wie immer die Leitlinien und alle Infos zum Projekt verlinkt in den Shownotes.

Mir bleibt zweimal Danke zu sagen. Einmal euch, liebe Zuhörerinnen und Zuhörer, für eure Zeit und Aufmerksamkeit. Und natürlich Anja und Johannes, dass ihr euch Zeit genommen habt, auch das Vorgespräch, aber auch für die Aufnahme. Ich fand es extrem spannend und danke euch, dass ihr so offen über das Projekt gesprochen habt.

Liebe Zuhörerinnen und Zuhörer. Das war der Sozialgespräch Podcast für dieses Mal. Feedback wie immer gerne über Kommentare oder E-Mails.


Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

DSGVO Cookie Consent mit Real Cookie Banner