Produktiver, kreativer, präziser: Künstliche Intelligenz revolutioniert die Arbeit in vielen Branchen – auch in der Kommunikation. Mit dem Einsatz von KI steigt aber auch die ethische Verantwortung der User. Von Transparenz über Robustheit bis Sicherheit: in zehn Schritten zu einer vertrauenswürdigen KI.

Haruki Murakami, Colson Whitehead, George Saunders, Karl Ove Knausgård, Kazuo Ishiguro: Wer ChatGPT Anfang 2023 nach den fünf wichtigsten Schriftstellern der vergangenen zehn Jahre fragte, dem spuckte die KI in Sekundenschnelle diese Liste aus. Stellt man ChatGPT die gleiche Frage sechs Monate später, ist die Antwort genauso schnell verfügbar und die Bewunderung für den Japaner Murakami ungebrochen. Doch finden sich nun auch Frauen unter den Top 5 – sogar mehr als Männer: die neapolitanische Bestsellerautorin Elena Ferrante, Chimamanda Ngozi Adichie aus Nigeria und die irische Schriftstellerin Sally Rooney.

KI: Durch Regulierung Vertrauen schaffen

Der Grund für die veränderte Antwort ist alles andere als trivial und spiegelt nicht veränderte Lesepräferenzen wider. Sondern eine wachsende Sensibilität im Umgang der für die Antwort ausgewerteten Daten. Die kurze Liste ist also Indiz für die zunehmende Ambivalenz im Umgang mit KI. Denn einerseits ist klar: Künstliche Intelligenz revolutioniert die Arbeit in vielen Branchen – auch in der Kommunikation. KI macht uns Menschen bei vielen Arbeitsschritten produktiver, kreativer, präziser. Andererseits steigen mit dem Einsatz von KI aber auch Anspruch und Erkenntnis, verantwortungsvoll mit den dort verarbeiteten Daten umzugehen und ethische Aspekte bei der Arbeit mit diesen Systemen zu berücksichtigen. Sowohl im Umgang mit der Datenbasis als auch den daraus entstehenden Ergebnissen.


Denn jüngste Forschungsprojekte wie etwa eine
Gemeinschaftsstudie der University of Washington, der Carnegie Mellon University in Pittsburgh und der Jiaotong University in Xi’an machen deutlich, dass KI-Sprachmodelle keinesfalls neutral, sondern politisch voreingenommen sind. Die Untersuchung von 14 Large Language Models machte deutlich, dass ChatGPT and GPT-4, entwickelt von OpenAI politisch linkslibertär geprägt ist, während Metas LLM im Vergleich zu allen untersuchten Sprachmodellen den stärksten rechtslastig autoritären Einschlag zeigte.  

Ethische Leitfäden für den täglichen Gebrauch 


Ob börsennotierte Konzerne, global tätige gemeinnützige Nicht-Regierungsorganisationen oder internationale Staatenbünde: Viele Organisationen und Unternehmen sind deshalb dabei, ihren Umgang mit KI zu hinterfragen und den Einsatz dieser Systeme durch einen ethischen Rahmen zu reglementieren.
Die EU etwa arbeitet gerade an der Entwicklung eines AI Act, der den Einsatz von KI transparent und grundrechtskonform machen soll, indem er KI-Technologien nach Risikopotenzial und Auswirkungen kategorisiert. Ähnliche Regularien plant gerade auch die UNESCO, aber auch bei Unternehmen und Organisationen von IBM bis zur IHK. Allerorten entstehen derzeit Regelwerke für den Aufbau einer vertrauenswürdigen KI, in die idealerweise die Perspektiven vieler Disziplinen einfließen – von der Natur- über die Rechts- bis zur Gesellschaftswissenschaft. Leitfäden, die die Transparenz und Sicherheit der genutzten Daten sowie die Erklärbarkeit der Ergebnisse ebenso sicherstellen wie eine inklusive Nutzung, robuste Verfügbarkeit und eine angemessene Regulierung der Systeme.  

Grenzen und Risiken von KI im Blick behalten 

Solche KI-Leitfäden sollten, wie es in den internen Leitlinien der EU-Kommission zu ChatGPT heißt, als „lebende Dokumente“ gesehen werden, da sie versuchen müssen, mit den rasanten Entwicklungen im Bereich generativer KI Schritt zu halten. Dieser Katalog hält Mitarbeitende der Kommission an, die Grenzen und Risiken im Blick zu halten und stellt fünf wichtige Verhaltensregeln auf:

  • Sensible Informationen oder persönliche Daten dürfen nicht mit generativen KI-Modellen geteilt werden.
  • Jede Antwort, die von einem generativen KI-Modell erzeugt wird, sollte kritisch auf mögliche Verzerrungen und sachlich ungenaue Informationen geprüft werden.
  • Der Output eines generativen KI-Modells darf niemals direkt in öffentlichen Dokumenten reproduziert werden, insbesondere bei der Erstellung von rechtsverbindlichen Texten.
  • Es ist wichtig, zu überprüfen, ob der von der KI erzeugte Output die Rechte des geistigen Eigentums, insbesondere das Urheberrecht, verletzt.
  • Generative KI-Modelle haben möglicherweise eine lange Reaktionszeit oder sind nicht immer verfügbar. Daher sollten sich Mitarbeiter bei kritischen und zeitkritischen Aufgaben nicht ausschließlich auf diese Werkzeuge verlassen.
     

Vorreiter Deutsche Telekom

Als eines der ersten deutschen Unternehmen hat auch die
Deutsche Telekom selbstbindende Leitlinien für einen ethischen Umgang mit KI entwickelt. Diese betonen die Verantwortlichkeit, Transparenz und Kontrolle im Umgang mit KI-Systemen. Die Telekom sieht die Richtlinie als Grundlage für den weiteren Diskurs und einen breiteren Konsens und legt unter anderem Wert auf die Einhaltung dieser Punkte.

  • Verantwortung übernehmen: Es werden klare Zuständigkeiten und Verantwortlichkeiten für KI-Systeme definiert, sowohl intern als auch in Zusammenarbeit mit Partnern.
  • Sorgsamer Umgang mit KI: KI-Systeme müssen den geltenden Regeln, Gesetzen und Unternehmenswerten entsprechen.
  • Kunden in den Mittelpunkt stellen: KI wird genutzt, um Lösungen im Interesse der Kunden zu entwickeln und deren Bedürfnisse zu erfüllen.
  • Transparenz gewährleisten: Es wird deutlich gemacht, wenn Kunden mit einem KI-System interagieren, und die Nutzung ihrer Daten wird offengelegt.
  • Sicherheit bieten: Datensicherheit und Datenschutz für Kunden werden gewährleistet, indem der Zugriff auf kundenbezogene Daten kontrolliert wird.
  • Fundament legen: KI-Systeme basieren auf gründlichen Analysen und Evaluierungen, die transparent dokumentiert sind.
  • Überblick behalten: Es besteht die Kontrolle über KI-Systeme, die jederzeit angehalten oder abgeschaltet werden können, um Qualität und Genauigkeit sicherzustellen.

Das Problem sitzt oft vor dem Bildschirm

Solche ausgefeilten Rahmenwerke sollen dazu beitragen, alle Beteiligten im Umgang mit KI-Systemen zu sensibilisieren – am besten vom ersten Prompt an. Nur so lässt sich die Verbreitung von Fehlinformationen verhindern. Denn in der Interaktion mit dem Menschen rezipiert die KI Untertöne und Erwartungshaltungen, die wir im Zweifel schon beim Prompten einfüttern. Oder die von der Organisation hinter einem KI-System vorgegeben werden – wie dem ChatGPT-Mutterkonzern OpenAI. Die Bemühungen, Nutzer:innen vor rassistischen, ableistischen, homophoben oder politisch radikalen Aussagen zu schützen, lässt Kritiker wiederum ein voreingenommenes Sprachmodell vermuten. Elon Musk, einer der Hauptgeldgeber von OpenAI, arbeitet deshalb dem Wallstreet Journal zufolge mit „X.AI“ bereits an einer „anti-woken“ Version des Sprachmodells, das das Recht auf freie Meinungsäußerung postuliert. 

Checkliste: So klappt der ethische Umgang mit KI

Eigenes Verhalten reflektieren
Um die Qualität unserer Arbeit mit KI zu verbessern, ist es wichtig, auch die generierten Inhalte nicht blind zu akzeptieren, sondern sie immer kritisch zu hinterfragen und zu überprüfen – zum Beispiel über Peer-Review-Prozesse, also die regelmäßige Diskussion und Bewertung von Inhalten, um Vorurteile zu erkennen und zu korrigieren.

KI verstehen
Wie arbeitet ein KI-System eigentlich? Um den ethischen Herausforderungen im Umgang mit KI begegnen zu können, sollten wir uns ein grundlegendes Verständnis von der Funktionsweise generativer KI aneignen. Also zumindest eine Idee davon haben, wie generative KI-Modelle funktionieren und wie sie Texte erstellen. So verstehen wir die Möglichkeiten und Grenzen der Technologie und können von vornherein potenzielle Bias-Quellen enttarnen. Dazu sollten wir wissen, mit welchen Trainingsdaten und Modellen sie arbeitet. Auch die Frage, ob Expert: innen und Stakeholder aus verschiedenen Bereichen in den Programmierprozess eingebunden sind und inwieweit ihre Standpunkte die generierten Ergebnisse beantworten, ist hilfreich.

Datenbasis diversifizieren
Falls möglich, sollten wir bei der Auswahl der KI-Modelle sicherstellen, dass diese auf einer breiten und vielfältigen Datenbasis trainiert wurden. Das Training auf Daten, die verschiedene Kulturen, Geschlechter, Ethnien und soziale Hintergründe repräsentieren, trägt zu einer vielfältigeren und inklusiveren Texterstellung bei. 

Regelmäßig schulen
Auf dem Feld der generativen KI gibt es jeden Tag neue Entwicklungen, rechtliche Grenzfälle, ethische Fragestellungen – aber eben auch neue Anwendungen und Use Cases. Wir sollten uns daher durch regelmäßige Schulungen auf dem neuesten Stand halten und bewährte Verfahren im Umgang mit möglichem Bias etablieren. Speziell im Bereich Diversität/Inklusion und KI gibt es zahlreiche online verfügbare Webinare, Podcasts und Blogs, die wertvolle Informationen bereitstellen.

Daten schützen
Die Verarbeitung personenbezogener Daten in Verbindung mit generativen KI-Systemen sollte transparent und rechtskonform erfolgen. Die Übermittlung von Daten in andere Länder erfordert eine sorgfältige Prüfung der Rechtsgrundlagen.

Datenqualität sichern
Generative KI-Systeme können ungenaue oder irreführende Aussagen generieren. Es ist wichtig, die Qualität und Objektivität des Outputs kritisch zu hinterfragen.

Geistiges Eigentum wahren
Bei der Verwendung von generierten Inhalten ist Vorsicht geboten, um mögliche Verletzungen des Urheberrechts zu vermeiden.

Transparenz herstellen
Unternehmen sollten offenlegen, wie und wo sie generative
KI-Modelle einsetzen, um das Vertrauen von Kunden und Mitarbeitenden zu stärken.

Risiken bewerten und Haftung klären
Die möglichen rechtlichen und finanziellen Risiken im Zusammenhang mit generativer KI sollten sorgfältig bewertet werden. Die Frage der Haftung bei Fehlern oder Schäden durch die Nutzung der KI-Systeme sollte geklärt werden.

Durch Menschen überprüfen
Eine sorgfältige Überprüfung generierter Inhalte durch menschliche Experten ist besonders wichtig, um potenziell schwerwiegende Fehlaussagen zu vermeiden.

Wie wichtig gerade auch Letzteres ist, zeigt dieser Selbstversuch: Bittet man ChatGPT um Wege, Texte auf Bias zu untersuchen, nennt das Sprachmodell auch eine Reihe von Tools mit so einleuchtenden Namen wie „Fairness Flow“, „Safeguard“ und „Detoxify“. Sie sollen angeblich von OpenAI entwickelt worden sein, um Vorurteile in Texten erkennen und dabei zu helfen, diese zu reduzieren. Zu schön, um wahr zu sein – die genannten KI-Tools existieren schlicht nicht.

Kontakt