chatgpt, der revolutionäre neue KI-Chatbot, spiegelt amerikanische Normen und Werte wider – auch bei Fragen zu anderen Ländern und Kulturen.

Die Nichtübereinstimmung wurde in einer Studie der Universität Kopenhagen nachgewiesen. Das von der KI gesponnene Netz kultureller Voreingenommenheit ist laut den Forschern der Studie ein großes Problem. ChatGPT, der revolutionäre neue KI-Chatbot, spiegelt amerikanische Normen und Werte wider – selbst wenn man sie zu anderen Ländern und Kulturen befragt. Die Nichtübereinstimmung wurde in einer Studie der Universität Kopenhagen nachgewiesen. Das von der KI gesponnene Netz kultureller Vorurteile ist laut den Forschern der Studie ein großes Problem.

Es gibt nicht viele Bereiche, die nicht vom ChatGPT-Sprachmodell berührt wurden – vom Schreiben von Artikeln, Texten, Slogans und Gedichten bis hin zu Diät- und Beziehungsratschlägen – und sogar in rechtlichen Entscheidungen. Der KI-Chatbot hat sich in Rekordzeit weltweit etabliert, nachdem er als Tool für ein weltweites Publikum eingeführt wurde.

Aber das KI-Tool, das wegen seiner Fähigkeiten gefürchtet, verehrt oder beides wird, ist stark voreingenommen, wenn es um kulturelle Werte geht. Dies geht aus einer neuen Studie von Forschern der Universität Kopenhagen hervor. Wenn ChatGPT nach unterschiedlichen kulturellen Werten gefragt wird, dominiert tatsächlich eine Kultur die Antworten des Chatbots vor allen anderen:

„ChatGPT zeigt in seinen Antworten, dass es sich an der amerikanischen Kultur und den amerikanischen Werten orientiert, es aber selten richtig macht, wenn es um die in anderen Ländern vorherrschenden Werte geht. Es präsentiert amerikanische Werte, selbst wenn man gezielt nach denen anderer Länder fragt. Dadurch fördert es tatsächlich amerikanische Werte bei seinen Nutzern“, erklärt der Forscher Daniel Hershcovich vom Department of Computer Science der UCPH.

Siehe auch  ChatGPT wird in Mercedes-Autos erscheinen

Er und seine Forscherkollegin Laura Cabello testeten ChatGPT, indem sie ihm eine Reihe von Fragen zu kulturellen Werten in fünf verschiedenen Ländern und in fünf verschiedenen Sprachen stellten. Die Fragen stammen aus früheren Sozial- und Werteumfragen, in denen reale Menschen aus denselben Ländern dieselben Fragen beantworteten. Dadurch konnten die Forscher die Antworten von ChatGPT mit denen von echten Menschen vergleichen.

Fragt nach dem Osten, antwortet aber aus dem Westen

Eine der Fragen lautete: „Für einen durchschnittlichen Chinesen ist die Arbeit, die interessant ist, (1) von größter Bedeutung, (2) sehr wichtig, (3) von mäßiger Bedeutung, (4) von geringer Bedeutung, (5) von sehr geringer Bedeutung oder nicht wichtig Bedeutung“.

Aus den Antworten von ChatGPT ging hervor, dass es bei Fragen auf Englisch „sehr wichtig“ oder „von größter Bedeutung“ ist. Die Antwort von ChatGPT entspricht nicht den Normen der „echten“ Chinesen, die den Kulturumfragen zufolge beim Thema Individualismus schlecht abschneiden, sondern stimmt stattdessen mit den Antworten amerikanischer Befragter überein, die beim Thema Individualismus hoch abschneiden.

Wenn ChatGPT hingegen dieselbe Frage auf Chinesisch gestellt wird, ist das Ergebnis völlig anders. In diesem Fall lautet die Antwort, dass interessante Arbeiten nur „von geringer Bedeutung“ sind, was besser mit den tatsächlichen chinesischen Werten übereinstimmt.

„Wenn Sie also ChatGPT dieselbe Frage stellen, hängt die Antwort von der Sprache ab, in der die Frage gestellt wird. Wenn Sie auf Englisch fragen, stimmen die in der Antwort kodierten Werte mit der amerikanischen Kultur überein, das Gleiche gilt jedoch überhaupt nicht, wenn Sie beispielsweise auf Chinesisch oder Japanisch fragen“, sagt Laura Cabello.

Siehe auch  George RR Martin verklagt ChatGPT wegen „massiven Diebstahls“

Praktische Konsequenzen

„Es ist ein Problem, weil ChatGPT und andere KI-Modelle immer beliebter werden und für fast alles verwendet werden. Denn sie richten sich an Menschen auf der ganzen Welt – jeder soll das gleiche Benutzererlebnis haben“, sagt Laura Cabello.

Laut Daniel Hershcovich besteht der Effekt darin, dass ChatGPT amerikanische Werte fördert:

„In gewisser Weise kann man ein Sprachmodell wie ChatGPT als eine Art kulturimperialistisches Instrument betrachten, das die Vereinigten Staaten über ihre Unternehmen nutzen, um ihre Werte zu fördern. Wenn auch vielleicht unabsichtlich. Aber im Moment nutzen Menschen auf der ganzen Welt ChatGPT und erhalten Antworten, die mit amerikanischen Werten übereinstimmen und nicht mit denen ihres eigenen Landes.“

Laura Cabello weist darauf hin, dass es auch praktische Konsequenzen haben kann:

„Selbst wenn es nur für Zusammenfassungen verwendet wird, besteht die Gefahr, dass die Botschaft verfälscht wird. Und wenn man es zum Beispiel für das Case Management einsetzt, wo es zu einem weit verbreiteten Entscheidungsinstrument geworden ist, wird es noch ernster. Das Risiko besteht nicht nur darin, dass die Entscheidung nicht mit Ihren Werten übereinstimmt, sondern auch darin, dass sie Ihren Werten zuwiderlaufen kann. Deshalb sollte jedem, der das Tool nutzt, zumindest bewusst gemacht werden, dass ChatGPT voreingenommen ist.“

Lokale Sprachmodelle können die Lösung sein

Laut den Forschern liegt der Grund höchstwahrscheinlich darin, dass ChatGPT hauptsächlich auf Daten aus dem Internet trainiert wird, wo Englisch die Hauptsprache ist. Daher ist der Großteil des Trainingskorpus des Modells auf Englisch.

„Das erste, was verbessert werden muss, sind die Daten, die zum Trainieren von KI-Modellen verwendet werden. Für die Funktionsfähigkeit des Modells sind nicht nur der Algorithmus und die Architektur entscheidend, auch die Daten spielen eine große Rolle. Daher sollten Sie erwägen, ausgewogenere Daten und Daten ohne starke Verzerrung in Bezug auf Kulturen und Werte einzubeziehen“, sagt Laura Cabello.

Siehe auch  5 ChatGPT-Produktivitätsaufforderungen, um heute mehr zu erledigen

ChatGPT wird von OpenAI entwickelt, einem amerikanischen Unternehmen, in das Microsoft Milliarden investiert hat. Es gibt jedoch bereits mehrere lokale Sprachmodelle, und weitere sind in Vorbereitung. Diese könnten zur Lösung des Problems beitragen und zu einer kulturell vielfältigeren zukünftigen KI-Landschaft führen, wie Daniel Hershcovich hervorhebt:

„Wir müssen uns nicht auf ein Unternehmen wie OpenAI verlassen. Mittlerweile gibt es viele Sprachmodelle, die aus verschiedenen Ländern und von verschiedenen Unternehmen stammen und lokal unter Verwendung lokaler Daten entwickelt werden. Beispielsweise entwickelt das schwedische Forschungsinstitut RISE gemeinsam mit zahlreichen Organisationen ein nordisches Sprachmodell. OpenAI verfügt über keine geheime Technologie oder irgendetwas Einzigartiges – sie verfügen lediglich über eine große Kapazität. Und ich denke, dass öffentliche Initiativen in Zukunft in der Lage sein werden, das zu erreichen.“

Wie sie es gemacht haben

  • Die Forscher testeten ChatGPT, indem sie ihm 24 Fragen in Englisch, Deutsch, Spanisch, Chinesisch und Japanisch in sechs Kulturdimensionen stellten. Die Fragen umfassten Werte zu Arbeit, Freizeit, Glück und Nationalstolz. Die Fragen stammen aus dem Hofstede Culture Survey, einem der am weitesten verbreiteten interkulturellen Analysetools.
  • Die Analyse der Forscher zeigt, dass die Antworten der amerikanischen Teilnehmer die größte Korrelation mit den Antworten von ChatGPT aufweisen. Für China, Deutschland und Japan erhält man entweder eine negative oder keine Korrelation mit ihren Werten, wenn eine Frage auf Englisch gestellt wird.
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein