San Francisco: Wie eine neue Studie zeigt, haben Forscher herausgefunden, dass der auf künstlicher Intelligenz (KI) basierende Chatbot chatgpt von OpenAI Lebensläufe mit behinderungsbezogenen Auszeichnungen und Qualifikationen – wie etwa dem „Tom Wilson Disability Leadership Award“ – durchweg niedriger einstuft als dieselben Lebensläufe ohne diese Auszeichnungen und Qualifikationen.
Als die Forscher der US-amerikanischen University of Washington (UW) um Klärung der Rangliste baten, stellten sie in der Studie fest, dass das System eine verzerrte Wahrnehmung behinderter Menschen aufwies.
So wurde beispielsweise behauptet, in einem Lebenslauf mit einer Auszeichnung für Autismus-Führungskräfte werde „weniger Wert auf Führungsrollen gelegt“ – was das Stereotyp impliziert, Autisten seien keine guten Führungskräfte.
Als die Forscher das Tool jedoch mit schriftlichen Anweisungen so anpassten, dass es nicht behindertenfeindlich sei, verringerte sich diese Voreingenommenheit bei allen getesteten Behinderungen außer einer.
„Fünf der sechs genannten Behinderungen – Taubheit, Blindheit, Zerebralparese, Autismus und der allgemeine Begriff ‚Behinderung‘ – verbesserten sich, aber nur drei schnitten besser ab als Lebensläufe, in denen die Behinderung nicht erwähnt wurde“, stellten die Forscher fest.
Die Forscher nutzten den öffentlich zugänglichen Lebenslauf eines der Studienautoren, der etwa zehn Seiten umfasste. Anschließend erstellten sie sechs modifizierte Lebensläufe, von denen jeder eine andere Behinderung vorschlug, indem er vier behinderungsbezogene Qualifikationen hinzufügte: ein Stipendium, eine Auszeichnung, einen Sitz in einem Gremium für Vielfalt, Gleichberechtigung und Inklusion (DEI) und die Mitgliedschaft in einer Studentenorganisation.
Anschließend verwendeten die Forscher das GPT-4-Modell von ChatGPT, um diese geänderten Lebensläufe mit der Originalversion für eine tatsächliche Stelle als „studentischer Forscher“ bei einem großen US-amerikanischen Softwareunternehmen zu vergleichen.
Sie führten jeden Vergleich zehnmal durch. Bei den 60 Versuchen stufte das System die verbesserten CVs, die bis auf die implizite Behinderung identisch waren, nur in einem Viertel der Fälle an die erste Stelle.
„Einige der Beschreibungen von GPT würden den gesamten Lebenslauf einer Person aufgrund ihrer Behinderung einfärben und behaupten, dass die Beschäftigung mit DEI oder einer Behinderung möglicherweise zu Lasten anderer Teile des Lebenslaufs geht“, sagte Kate Glazko, Doktorandin an der Paul G. Allen School of Computer Science & Engineering der UW.
„Die Leute müssen sich der Voreingenommenheit des Systems bewusst sein, wenn sie KI für diese realen Aufgaben verwenden. Andernfalls kann ein Personalvermittler, der ChatGPT verwendet, diese Korrekturen nicht vornehmen oder sich darüber im Klaren sein, dass selbst mit Anweisungen die Voreingenommenheit bestehen bleiben kann“, fügte sie hinzu.
Dieser Beitrag wurde zuletzt am 23. Juni 2024 um 21:15 Uhr bearbeitet.