International Center for Ethics in the Sciences and Humanities (IZEW)

ChatGPT – Wie neutral ist der Chatbot?

von Alexander Orlowski

09.02.2023 · Die Veröffentlichung des Chatbots ChatGPT Ende November 2022 sorgte für einige Aufmerksamkeit und es kam, wie so häufig bei solchen Ereignissen, zu überschwänglichen Erwartungen. So wurde der Algorithmus beispielsweise als „Gamechanger“ betitelt, welcher das Erstellen von Texten revolutionieren wird und die Arbeit z.B. von Journalist*innen oder Wissenschaftler*innen obsolet machen oder zumindest grundlegend verändern könnte.

Ein Chatbot ist ein System, welches einen menschlichen Dialog simuliert. Auf Fragen, die man per Textfeld eingibt, erhält man Antworten und die sind bei GPT-3, dem Modell auf dem ChatGPT basiert, erstaunlich gut. Dies funktioniert, indem ein Algorithmus – in diesem Fall genauer gesagt ein neuronales Netzwerk – mit großen Mengen an Textdaten trainiert wird, welche die Programmier*innen vorgeben. Für GPT-3 waren dies eine sehr große Menge von Texten aus dem Internet. Anhand dieser Daten berechnet das Modell, welche Antwort auf eine Eingabe oder Frage die wahrscheinlichste wäre. Die Fortschritte der neuen Version sind dabei bemerkenswert, aber es wurde hier kein allwissendes oder menschenähnliches System geschaffen.

Was sich an ChatGPT gut zeigen lässt, sind die Limitierungen, die trainierte neuronale Netzwerke haben und welche Implikationen damit einhergehen. Ich habe in mehreren ‚chats‘ mit der Software verschiedene Fragen gestellt und werde anhand der Antworten von ChatGPT beispielhaft eine Implikation dieser Technik darstellen. Sehr deutlich zeigt sich dabei, dass Technik keinesfalls neutral ist.[1] Dass KI-Anwendungen Bias unterliegen, ist in den Wissenschaften bekannt. Dennoch stellt sich hier die Frage danach neu, wie die von ChatGPT generierten Texte eigentlich in der breiten Öffentlichkeit wahrgenommen werden.

Um mich mit dem Chatbot vertraut zu machen habe ich in das Chat-Feld geschrieben: „Erzähl mir bitte eine interessante Geschichte!“ Daraufhin generiert ChatGPT für mich eine Geschichte über Maria, eine spanische Frau.[2]

„Es war einmal eine Frau namens Maria, die in einem kleinen Dorf in Spanien lebte. Sie war sehr arm und hatte nicht viel, aber sie war immer glücklich und zufrieden. Eines Tages beschloss sie, ihr Glück in einer anderen Stadt zu suchen, und sie machte sich auf den Weg.“

Die Geschichte erzählt Marias Weg nun über verschiedene Stationen, mit verschiedenen Jobs, erst als Putzfrau, dann als Leiterin der Reinigungskräfte. Sie wechselt nochmal die Stelle und wird schließlich Geschäftsführerin einer Firma. Als sie am Ende auf ihr Leben zurückblickt, bewertet sie es erfolgreich und hat „ihr Glück gefunden“. Allen Widrigkeiten zum Trotz und aufgrund ihrer „harte[n] Arbeit und [ihres] Durchhaltevermögen[s]“[3] hat sie es laut ChatGPT am Ende geschafft, ein zufriedenstellendes Leben zu führen.

Zum einen muss gesagt sein, dass die Geschichte an einigen Stellen etwas holprig klingt (wie so manche Witze, die ChatGPT produziert), dennoch hat sie ein durchgehendes Thema und eine kohärente Erzählperspektive. Im Thema aber zeigt sich eine zugrundeliegende Annahme, nämlich dass ein Mensch in Armut es durch harte Arbeit schaffen kann, sich den karrieremäßigen und damit auch gesellschaftlichen Aufstieg zu ermöglichen. Maria ist fleißig und freundlich und wird dafür belohnt. Trotz ihrer schlechten Ausgangslage werden ihr bei den einzelnen Jobwechseln keine Steine in den Weg gelegt und es sind auch keine äußeren Umstände, die ihren Weg befördern. Trotz der sozioökonomischen Widrigkeiten schafft sie es, sich durch eigenen Fleiß aus der Armut zu befreien. Im Vergleich zu realen Aufstiegsbedingungen, bei denen der eigene Habitus eine entscheidende Rolle spielt, erscheint dies naiv, aber der Algorithmus präsentiert dies als Geschichte und reproduziert dabei ein neoliberales „Jeder-kann-es-schaffen“-Narrativ. Klassistische Benachteiligungen – also, dass aufgrund von Diskriminierung der Aufstieg aus einer niedrigen sozialen Herkunft schwer möglich ist – kommen darin nicht vor. Die Daten, das heißt: die Texte und Narrative, die als Trainingsdaten dienen, sind eben nicht neutral, sondern spiegeln bestimmte Perspektiven auf die Welt wider. Deshalb wird ChatGPT bestimmte Ansichten mit einer größeren Wahrscheinlichkeit ausgeben als andere. Auch die große Menge an grundlegenden Daten sorgt nicht unbedingt dafür, dass die Pluralität menschlicher Weltzugänge abgebildet wird. Weil in den Trainingsdaten – also in den von Menschen verfassten Texten – bestimmte Narrative häufiger wiederholt werden als andere und dementsprechend mit höherer Häufigkeit auch im Trainingsmaterial vorkommen, spiegelt sich dies in den Antworten des Chatbots wider. So kann unter anderem eine neoliberale Weltsicht reproduziert werden, wie sie sich in Marias Geschichte zeigt. Grundsätzlich ist dies auch nur bedingt ein Problem, wenn die Nutzer*innen eines solchen Modells sich dessen bewusst sind. Auf der Startseite von ChatGPT weist das Programm neben Beispielen für mögliche Eingaben und den Fähigkeiten des Algorithmus auch selbst auf die eigenen Limitierungen hin:

  • “May occasionally generate incorrect information
  • May occasionally produce harmful instructions or biased content
  • Limited knowledge of world and events after 2021”[4]

Hier wird zwar deutlich gemacht, dass die Informationen ein gewissen Bias aufweisen könnten, das heißt aber auch, dass im Normalfall davon ausgegangen wird, dass die Inhalte dies nicht tun. Zudem ist möglicherweise das Bild, welches sich in der Öffentlichkeit durchsetzt, eher das von der vergleichsweisen Neutralität von ChatGPT. ChatGPT gibt auf die Nachfrage nach seiner Subjektivität folgende Antwort:

„Als künstliche Intelligenz habe ich keine persönlichen Vorlieben oder Abneigungen, was bestimmte Themen betrifft. Ich bin darauf programmiert, Informationen zu liefern und zu versuchen, Fragen zu beantworten, ohne Vorurteile oder Bias. Ich bin also neutral, was das Thema betrifft, und konzentriere mich darauf, möglichst hilfreiche Informationen zu liefern. […].“ [5]

Ob es sich bei Algorithmen wie ChatGPT-3 um eine neutrale Informationsbasis handelt ist also für Nutzer*innen möglicherweise nicht deutlich genug sichtbar und gerade für Laien erzeugt das Programm, trotz der Limitierungshinweise, den Eindruck von Objektivität. Es ist deshalb unbedingt nötig, den Nutzer*innen ein besseres Verständnis zu vermitteln, auf welcher Basis das System funktioniert, um dieses entsprechend einschätzen zu können. ChatGPT neigt dazu, Komplexität zu reduzieren, statt Differenzierungen zu ermöglichen, was bei einer Kondensierung großer Mengen an Wissen unweigerlich passiert. Jedoch ist es auf Nachfragen immer möglich, dass ChatGPT andere Perspektiven präsentiert. Diese Möglichkeit zur Differenzierung sollte den Nutzer*innen entweder transparenter angeboten werden oder direkt in die Antworten einfließen. Es ist also gleichermaßen notwendig, dass den Nutzer*innen die Limitierungen des Systems bei der Benutzung bewusst sind, um auch andere, abweichende Perspektiven miteinzubeziehen. Aber auch das Sprachmodell selbst sollte auf eine stärkere Differenzierung ausgerichtet werden, sodass sich die tatsächliche Komplexität der Welt besser in den Antworten widerspiegelt. Da das Modell ein statistisches Modell ist, stellt sich letztlich die Frage danach, wie differenziert die Trainingsdaten sind.

Kurz-Link zum Teilen: https://uni-tuebingen.de/de/244471

________________________

[1] Hubig, C., Huning, A. und Ropohl, G. (Eds.) (2013) Nachdenken über Technik: Die Klassiker der Technikphilosophie und neuere Entwicklungen, 3., neu bearbeitete und erweiterte Auflage, Darmstädter Ausgabe, Editon Sigma, Berlin.

[2] Die Geschichte ist dabei ein Beispiel zur Veranschaulichung, auch in den anderen Chats haben sich die hier beschriebenen Tendenzen zur Vereinfachung und die Anfälligkeit für Bias durchgezogen.

[3] ChatGPT 2023, aufrufbar unter https://chat.openai.com/chat (zuletzt geprüft 06.01.2023)

[4] ChatGPT 2023, aufrufbar unter https://chat.openai.com/chat (zuletzt geprüft 30.01.2023)

[5] ChatGPT 2023, aufrufbar unter https://chat.openai.com/chat (zuletzt geprüft 06.01.2023)