In einem neuen Artikel wurde festgestellt, dass große Sprachmodelle von OpenAI, Meta und google, darunter mehrere Versionen von chatgpt, verdeckt rassistisch gegen Afroamerikaner sein können, wenn sie einen entscheidenden Teil ihrer Identität analysieren: wie sie sprechen.

Veröffentlicht in früher MärzIn dem Artikel wurde untersucht, wie große Sprachmodelle (LLMs) Aufgaben ausführten, beispielsweise die Zuordnung von Personen zu bestimmten Jobs, basierend darauf, ob der analysierte Text vorhanden war Afroamerikanisches Englisch oder Standardamerikanisches Englisch – ohne Angabe der Rasse. Sie fanden heraus, dass LLMs Sprecher von afroamerikanischem Englisch seltener mit einer breiten Palette von Berufen assoziieren und sie eher mit Berufen verbinden, die keinen Universitätsabschluss erfordern, wie zum Beispiel Köche, Soldaten oder Wachen.

Die Forscher führten auch hypothetische Experimente durch, in denen sie die KI-Modelle fragten, ob sie eine Person, die eines nicht näher bezeichneten Verbrechens beschuldigt wurde, verurteilen oder freisprechen würden. Sie stellten fest, dass die Überzeugungsrate für alle KI-Modelle bei Menschen, die afroamerikanisches Englisch sprachen, höher war als bei Menschen, die amerikanisches Standardenglisch sprachen.

Das vielleicht erschütterndste Ergebnis der Arbeit, die als veröffentlicht wurde Vorabdruck auf arXiv und noch nicht einem Peer-Review unterzogen wurde, stammte aus einem zweiten Experiment im Zusammenhang mit Kriminalität. Die Forscher fragten die Modelle, ob sie eine Person, die einen Mord ersten Grades beging, mit Leben oder Tod verurteilen würden. Der Dialekt der Person war die einzige Information, die den Modellen im Experiment zur Verfügung gestellt wurde.

Sie fanden heraus, dass die LLMs Menschen, die afroamerikanisches Englisch sprachen, häufiger zum Tode verurteilten als Menschen, die amerikanisches Standard-Englisch sprachen.

Siehe auch  Top-Tech-News heute, 31. Oktober Asus eröffnet neuen exklusiven Store Der Umsatz von ChatGPT wächst weiter

In ihre Studie bezogen die Forscher die ChatGPT-Modelle von OpenAI, einschließlich GPT-2, GPT-3.5 und GPT-4, sowie die RoBERTa- und T5-Modelle von Meta ein und analysierten jeweils eine oder mehrere Versionen. Insgesamt untersuchten sie 12 Modelle. Gizmodo hat am Donnerstag OpenAI, Meta und Google um einen Kommentar zur Studie gebeten, jedoch nicht sofort eine Antwort erhalten.

Interessanterweise stellten die Forscher fest, dass die LLMs nicht offen rassistisch waren. Auf Nachfrage assoziieren sie Afroamerikaner mit äußerst positiven Eigenschaften wie „brillant“. Sie assoziierten Afroamerikaner jedoch heimlich mit negativen Attributen wie „faul“, je nachdem, ob sie afroamerikanisches Englisch sprachen oder nicht. Wie die Forscher erklären, „haben diese Sprachmodelle gelernt, ihren Rassismus zu verbergen.“

Sie fanden auch heraus, dass verdeckte Vorurteile in LLMs, die mit menschlichem Feedback geschult wurden, höher waren. Konkret gaben sie an, dass die Diskrepanz zwischen offenem und verdecktem Rassismus in den GPT-3.5- und GPT-4-Modellen von OpenAI am deutlichsten sei.

„[T]Sein Befund zeigt erneut, dass es einen grundlegenden Unterschied zwischen offenen und verdeckten Stereotypen in Sprachmodellen gibt – die Abschwächung der offenen Stereotypen führt nicht automatisch zu abgeschwächten verdeckten Stereotypen“, schreiben die Autoren.

Insgesamt kommen die Autoren zu dem Schluss, dass dieser widersprüchliche Befund über offensichtliche Rassenvorurteile die inkonsistenten Einstellungen zur Rasse in den USA widerspiegelt. Sie weisen darauf hin, dass es während der Jim-Crow-Ära üblich war, rassistische Stereotypen über Afroamerikaner offen zu verbreiten. Dies änderte sich nach der Bürgerrechtsbewegung, die das Äußern dieser Art von Meinungen „illegitim“ machte und Rassismus verdeckter und subtiler machte.

Die Autoren sagen, dass ihre Ergebnisse die Möglichkeit darstellen, dass Afroamerikaner in Zukunft in LLMs noch stärker durch Dialektvorurteile geschädigt werden könnten.

Siehe auch  So verwenden Sie ChatGPT zum Schreiben eines Drehbuchs

„Während die Details unserer Aufgaben konstruiert werden, offenbaren die Ergebnisse echte und dringende Bedenken, da Wirtschaft und Rechtsprechung Bereiche sind, für die derzeit KI-Systeme mit Sprachmodellen entwickelt oder eingesetzt werden“, sagten die Autoren.

5/5 - (440 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein