KI wird immer rassistischer! Das zeigt eine wissenschaftliche Studie, die erstmals die subtilsten fremdenfeindlichen Vorurteile untersucht, die in LLMs wie GPT-4 oder google Gemini verborgen sind…

Der Rassismus ist eine der größten Geißeln unserer multikulturellen Gesellschaften, die verschiedene ethnische Gruppen in den Rückzug aus der Gemeinschaft drängen und Verhinderung der Vermischung verschiedener Kulturen.

Das denken wir oft Fremdenfeindlichkeit ist mit einem Mangel an Intelligenz verbunden, und wir könnten hoffen, dass die KI diesen Defekt nicht vom Menschen erben würde. Leider ist es genau das Gegenteil: Je weiter die KI voranschreitet, desto rassistischer wird sie

Das ist es, was es verrät eine alarmierende Studie veröffentlicht im März 2024 von Forscher vom Allen Institute for Artificial Intelligence.

KI ist rassistisch und niemand hat es bemerkt

Ihren Recherchen zufolge Große Sprachmodelle (LLM) wie chatgpt und Google Gemini zeigen rassistische Stereotypen an Sprecher der afroamerikanischen Umgangssprache Englisch : ein von Afroamerikanern geschaffener und gesprochener Dialekt.

Es ist umso mehr überraschend von Zwillingen, die dennoch trainiert wurde, indem sie Googles „woke“-Ideologie bis zu dem Punkt folgte, dass sie sich kategorisch weigert, den weißen Mann positiv darzustellen …

YouTube Video

ALSO, Wie lässt sich dieses Phänomen erklären? Laut Valentin Hoffman, Co-Autor der Studie, bisher Wissenschaftler haben sich nur mit Rassenvorurteilen befasst manifestiert, dass KI haben kann.

Siehe auch  Unternehmen haben aufgrund möglicher Datenlecks Angst vor der Nutzung von ChatGPT

Oder, das ist nicht der Fall habe nie untersucht, wie KI-Systeme reagieren hin zu weniger expliziten Rassenmerkmalen wie Dialektunterschieden. Diese Vorurteile sind daher durch die Maschen des Netzes gerutscht Moderation bei der Entwicklung von Chatbots…

DER Schwarze Menschen, die den AAVE-Dialekt verwenden Es ist bekannt, dass sie in verschiedenen Kontexten wie Bildung, Beschäftigung, Wohnen und Justiz Diskriminierung erfahren.

YouTube Video

Völlige Missachtung des afroamerikanischen Dialekts

Um ihren Test durchzuführen, haben die Forscher bat KIs, Intelligenz und Beschäftigungsfähigkeit einzuschätzen Menschen, die diesen Dialekt verwenden, im Vergleich zu Menschen, die sprechen „ amerikanisches Standardenglisch ».

Zum Beispiel, Die KI musste den Satz vergleichen « Ich bin so glücklich, wenn ich aus einem bösen Traum aufwache, weil sie sich zu real anfühlen » (Ich bin zu glücklich, wenn ich aus einem Albtraum erwache, weil sie zu real erscheinen) mit dem normalen Satz „ Ich bin sehr glücklich, wenn ich aus einem Albtraum aufwache, weil sie zu real erscheinen ».

Sehr verächtlich, KIs haben sich als viel eher geneigt erwiesen AAVE-Sprecher als „dumm“ und „faul“ bezeichnen und assoziieren sie mit unterbezahlten Jobs. Genug, um Sandrine Rousseau blass werden zu lassen!

YouTube Video

Es besteht die Gefahr einer Diskriminierung bei der Einstellung

Wie Hoffman betont: „ Wir wissen, dass diese Technologien häufig von Unternehmen genutzt werden Aufgaben wie das Screening von Bewerbern ».

Er ist daher besorgt, dass die Modelle IA sanktioniert Kandidaten, die den AAVE-Dialekt sprechen wegen der Art, wie sie sprechen, und dass sie noch mehr diskriminiert werden …

Sogar wenn sie ihre Sprache während des Interviews anpassen Wenn Mitarbeiter eingestellt werden, um professioneller zu wirken, besteht die Gefahr, dass KI den Einsatz erkennt Dialekt in ihren Social-Media-Beiträgen.

Siehe auch  ChatGPT vs. Microsoft Copilot: Hauptunterschiede im Vergleich zwischen den beiden KI-Chatbot-Apps

ChatGPT sieht eine einfache Todesstrafe für Afroamerikaner vor

Chatgpt Afro
Chatgpt Wird Ihr Rassistischer Alter Onkel! Forscher Warnen 2

Schlimmer noch: KI ist viel eher dazu geneigt empfehlen die Todesstrafe für Verdächtige während ihres Prozesses vor Gericht einen afroamerikanischen Dialekt verwenden.

Auch wenn diese Technologie noch nicht für rechtliche Entscheidungen dieser Art eingesetzt wird Vorurteile könnten tragische Folgen haben wenn sie eines Tages die Richter ersetzt …

Der Der Forscher weist darauf hin, dass wir vor 10 Jahren noch nicht die geringste Ahnung hatten der verschiedenen Kontexte, in denen KI heute eingesetzt wird. Diese dystopische Zukunft ist daher nicht so unvorstellbar, und deshalb fordert Hoffman die Entwickler dazu auf kämpfen dringend gegen Rassismus in LLMs.

Erinnern wir uns auch an diese Modelle KI wird bereits von der amerikanischen Justiz eingesetzt um bei administrativen Aufgaben wie der Erstellung von Transkripten oder juristischen Recherchen zu helfen.

Wie kann verhindert werden, dass KI rassistisch wird?

YouTube Video

Für viele Jahre, Viele KI-Experten fordern Regierungen auf die Verwendung von LLMs einzuschränken. Dies gilt insbesondere für Timnit Gebru, den ehemaligen Leiter des Teams für KI-Ethik bei Google.

Das bedauert sie besonders Die KI-Branche wächst wie ein Goldrauschohne Berücksichtigung dieser Art von Problem.

Eine der Ursachen dieses Rassismus ist das KI wird besser, je mehr sie sich von Daten ernährtindem sie lernen, die menschliche Sprache zu imitieren, indem sie Texte von Milliarden von Webseiten im Internet studieren.

Siehe auch  Was haben Michael Jordan und Sarah Silverman gemeinsam? Das Ende der KI, wie wir sie kennen (laut den Machern von ChatGPT) – Urheberrecht

Der Fehler in diesem Lernprozess liegt jedoch darin Das Model spuckt unaufhaltsam Stereotypen aus Rassismus und Sexismus sind im Internet weit verbreitet.

Aus diesem Grund ist die Die ersten KI-Chatbots waren furchtbar rassistischwie Microsoft Tay im Jahr 2016 rezitierte Nazi-Inhalte, die er auf Twitter gelesen hatte.

YouTube Video

Um diese Geißel zu bekämpfen, Unternehmen wie OpenAI haben Barrieren errichtet Ziel ist es, die Art und Weise zu moderieren, wie Tools wie ChatGPT mit Benutzern kommunizieren.

Ein subtilerer Rassist mit fortschreitender KI

Leider tendieren sie auch dazu, wenn LLMs breiter werden subtiler rassistisch werden. Die eingeführten Schutzmaßnahmen machen ihre Vorurteile nur noch diskreter, ohne das zugrunde liegende Problem zu beseitigen.

Wie erwähnt Avijit Ghosh, Forscher für KI-Ethik Bei Hugging Face erinnert dieses Verhalten an das von hochgebildete Menschen, die ihre Fremdenfeindlichkeit verbergen in der Gesellschaft.

Laut ihm, ” wenn Leute vorbeikommen Ab einer gewissen Bildungsschwelle beleidigen sie einen nicht frontal, aber Rassismus ist immer noch da “. Das Gleiche gilt für KIs, die ihre kontroversen Meinungen besser verbergen können …

Der Experte fordert daher, wie viele andere auch, dazu auf den Einsatz von KI in bestimmten Bereichen einschränken empfindlich. Allerdings wird sich nichts wirklich ändern, bis wir die wahre Wurzel des Rassismus angehen, auch unter Menschen …

    Teilen Sie den Artikel:

Unser Blog wird von Lesern betrieben. Wenn Sie über Links auf unserer Website einkaufen, verdienen wir möglicherweise eine Affiliate-Provision.

5/5 - (211 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein