Forscher, die KI-Chatbots testeten, die auf großen Sprachmodellen wie dem GPT4-Chat von OpenAI basierten, stellten fest, dass sie auch nach einem Anti-Rassismus-Training immer noch rassistische Vorurteile aufweisen können. Diese Entdeckung folgt auf die jüngste Veröffentlichung der Studie durch google Zwillinge KI von Google nach seinem neuen LLM überkorrigierter Rassismus, der zu dem führt, was manche als „aufgeweckt“ bezeichnenDie Gemini-KI erzeugte so das, was manche als „aufgeweckte“ Neuinterpretationen der Geschichte bezeichnen, in denen afroamerikanische Männer beispielsweise als Nazi-Soldaten aus dem Zweiten Weltkrieg dargestellt wurden. Es scheint, dass es für LLM-Modellbauer schwierig ist, beim Rennen die richtige Balance zu finden.
In der neuesten Studie, hervorgehoben von Neuer WissenschaftlerForscher fanden heraus, dass Dutzende verschiedener von ihnen getesteter LLM-Modelle immer noch rassistische Vorurteile aufwiesen, wenn ihnen Texte mit afroamerikanischen Dialekten präsentiert wurden. Dies trotz der Tatsache, dass die getesteten Modelle speziell darauf trainiert wurden, rassistische Vorurteile in den von Chatbots bereitgestellten Antworten zu vermeiden. Dazu gehört das Modell chatgpt-4-with-impressive-new-features.701262.0.html“ target=“_self“ class=“internal-link“>ChatGPT-4 und GPT-3.5 von OpenAI. In einem Fall wurde festgestellt, dass das GPT-4-Modell eher ein Todesurteil empfiehlt, wenn Englisch mit einem afroamerikanischen Dialekt gesprochen wird.
Die gleiche „verborgene Voreingenommenheit“ zeigte sich auch bei Stellenempfehlungen, die Afroamerikaner im Vergleich zu auf Standard-Amerikanischem Englisch basierenden Eingaben auf Berufe zuordneten, die weniger wahrscheinlich einen Abschluss erfordern, oder sogar so weit gingen, Menschen afroamerikanischer Abstammung auf Jobs zu bringen. Die Forscher fanden außerdem heraus, dass je größer das Sprachmodell ist, desto wahrscheinlicher ist es, dass es diese zugrunde liegenden Verzerrungen aufweist. Die Studie wirft Bedenken hinsichtlich des Einsatzes generativer KI-Technologien für Zuchtzwecke auf. einschließlich der Prüfung von Bewerbungen.
Die Forscher kamen zu dem Schluss, dass ihre Studie Fragen zur Wirksamkeit menschenbasierter KI-Sicherheitstrainingsinterventionen aufwirft, die nur scheinbar Rassismus und Voreingenommenheit auf einer hohen Ebene beseitigen, auf einer niedrigeren Ebene, wenn es sich um spezifische Rassen handelt, jedoch Schwierigkeiten haben, sie aus den aktuellen Modellen zu lösen Identitätsterminologie wird bei der Benutzerdateneingabe nicht erwähnt. Die Forscher empfehlen Unternehmen, die LLMs entwickeln, Vorsicht walten zu lassen, wenn sie LLM-Chatbots öffentlich zugänglich machen, bevor sie einer gründlichen Prüfung unterzogen wurden.