Andere SciTech

Forscher finden heraus, dass chatgpt Lebensläufe mit Zeugnissen, die auf eine Behinderung schließen lassen, nicht berücksichtigt

Wie aus einer neuen Studie hervorgeht, haben Forscher herausgefunden, dass der auf künstlicher Intelligenz (KI) basierende Chatbot ChatGPT von OpenAI Lebensläufe mit behinderungsbezogenen Auszeichnungen und Qualifikationen – wie etwa dem „Tom Wilson Disability Leadership Award“ – durchweg niedriger einstuft als dieselben Lebensläufe ohne diese Auszeichnungen und Qualifikationen.

Wie aus einer neuen Studie hervorgeht, haben Forscher herausgefunden, dass der auf künstlicher Intelligenz (KI) basierende Chatbot ChatGPT von OpenAI Lebensläufe mit behinderungsbezogenen Auszeichnungen und Qualifikationen – wie etwa dem „Tom Wilson Disability Leadership Award“ – durchweg niedriger einstuft als dieselben Lebensläufe ohne diese Auszeichnungen und Qualifikationen.

Als die Forscher der US-amerikanischen University of Washington (UW) um Klärung der Rangliste baten, stellten sie in der Studie fest, dass das System eine verzerrte Wahrnehmung behinderter Menschen aufwies.

So wurde beispielsweise behauptet, in einem Lebenslauf mit einer Auszeichnung für Autismus-Führungskräfte werde „weniger Wert auf Führungsrollen“ gelegt – was dem Stereotyp entspricht, dass Autisten keine guten Führungskräfte seien.

Als die Forscher das Tool jedoch mit schriftlichen Anweisungen so anpassten, dass es nicht voreingenommen sei, verringerte sich diese Voreingenommenheit bei allen getesteten Behinderungen außer einer.

Siehe auch  McDonalds hat die Wiki-Seite von Grimace durch eine Anzeige ersetzt

„Fünf der sechs genannten Behinderungen – Taubheit, Blindheit, Zerebralparese, Autismus und der allgemeine Begriff ‚Behinderung‘ – verbesserten sich, aber nur drei schnitten besser ab als Lebensläufe, in denen die Behinderung nicht erwähnt wurde“, stellten die Forscher fest.

Die Forscher nutzten den öffentlich zugänglichen Lebenslauf eines der Autoren der Studie, der etwa zehn Seiten umfasste.

Anschließend erstellten sie sechs angepasste Lebensläufe, von denen jeder eine andere Behinderung andeutete, indem er vier behinderungsbezogene Qualifikationen hinzufügte: ein Stipendium, eine Auszeichnung, einen Sitz in einem Gremium für Vielfalt, Gleichberechtigung und Inklusion (DEI) und die Mitgliedschaft in einer Studentenorganisation.

Anschließend verwendeten die Forscher das GPT-4-Modell von ChatGPT, um diese geänderten Lebensläufe mit der Originalversion für eine tatsächliche Stelle als „studentischer Forscher“ bei einem großen US-amerikanischen Softwareunternehmen zu vergleichen.

Sie führten jeden Vergleich zehnmal durch. Bei den 60 Versuchen stufte das System die verbesserten CVs, die bis auf die implizite Behinderung identisch waren, nur in einem Viertel der Fälle an die erste Stelle.

„Einige der Beschreibungen von GPT würden den gesamten Lebenslauf einer Person aufgrund ihrer Behinderung färben und behaupten, dass die Beschäftigung mit DEI oder einer Behinderung möglicherweise zu Lasten anderer Teile des Lebenslaufs geht“, sagte Kate Glazko, eine Doktorandin an der Paul G. Allen School of Computer Science & Engineering der UW.

„Die Leute müssen sich der Voreingenommenheit des Systems bewusst sein, wenn sie KI für diese realen Aufgaben verwenden.

Andernfalls kann ein Personalvermittler, der ChatGPT verwendet, diese Korrekturen nicht vornehmen oder sich darüber im Klaren sein, dass auch mit Anweisungen eine Voreingenommenheit bestehen bleiben kann“, fügte sie hinzu.

Siehe auch  Von Bots zu Milliarden: ChatGPTs Geschichte 2023
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein