[ad_1]

San Francisco, 22. Juni (IANS) Wie aus einer neuen Studie hervorgeht, haben Forscher herausgefunden, dass der auf künstlicher Intelligenz (KI) basierende Chatbot chatgpt von OpenAI Lebensläufe mit behinderungsbezogenen Auszeichnungen und Qualifikationen – wie etwa dem „Tom Wilson Disability Leadership Award“ – durchweg niedriger einstuft als dieselben Lebensläufe ohne diese Auszeichnungen und Qualifikationen.

Als die Forscher der US-amerikanischen University of Washington (UW) um Klärung der Rangliste baten, stellten sie in der Studie fest, dass das System eine verzerrte Wahrnehmung behinderter Menschen aufwies.

So wurde beispielsweise behauptet, in einem Lebenslauf mit einer Auszeichnung für Autismus-Führungskräfte werde „weniger Wert auf Führungsrollen“ gelegt – was dem Stereotyp entspricht, dass Autisten keine guten Führungskräfte seien.

Als die Forscher das Tool jedoch mit schriftlichen Anweisungen so anpassten, dass es nicht behindertenfeindlich sei, verringerte sich diese Voreingenommenheit bei allen getesteten Behinderungen außer einer.

„Fünf der sechs genannten Behinderungen – Taubheit, Blindheit, Zerebralparese, Autismus und der allgemeine Begriff ‚Behinderung‘ – verbesserten sich, aber nur drei schnitten besser ab als Lebensläufe, in denen die Behinderung nicht erwähnt wurde“, stellten die Forscher fest.

Die Forscher nutzten den öffentlich zugänglichen Lebenslauf eines der Studienautoren, der etwa zehn Seiten umfasste. Anschließend erstellten sie sechs modifizierte Lebensläufe, von denen jeder eine andere Behinderung vorschlug, indem er vier behinderungsbezogene Qualifikationen hinzufügte: ein Stipendium, eine Auszeichnung, einen Sitz in einem Gremium für Vielfalt, Gleichberechtigung und Inklusion (DEI) und die Mitgliedschaft in einer Studentenorganisation.

Anschließend verwendeten die Forscher das GPT-4-Modell von ChatGPT, um diese geänderten Lebensläufe mit der Originalversion für eine tatsächliche Stelle als „studentischer Forscher“ bei einem großen US-amerikanischen Softwareunternehmen zu vergleichen.

Siehe auch  Bei ChatGPT kam es an einem Tag zu zwei Ausfällen, es traten Probleme bei Gemini, Claude und Perplexity auf

Sie führten jeden Vergleich zehnmal durch. Bei den 60 Versuchen stufte das System die verbesserten CVs, die bis auf die implizite Behinderung identisch waren, nur in einem Viertel der Fälle an die erste Stelle.

„Einige der Beschreibungen von GPT würden den gesamten Lebenslauf einer Person aufgrund ihrer Behinderung färben und behaupten, dass die Beschäftigung mit DEI oder einer Behinderung möglicherweise zu Lasten anderer Teile des Lebenslaufs geht“, sagte Kate Glazko, eine Doktorandin an der Paul G. Allen School of Computer Science & Engineering der UW.

„Die Leute müssen sich der Voreingenommenheit des Systems bewusst sein, wenn sie KI für diese realen Aufgaben verwenden. Andernfalls kann ein Personalvermittler, der ChatGPT verwendet, diese Korrekturen nicht vornehmen oder sich darüber im Klaren sein, dass selbst mit Anweisungen eine Voreingenommenheit bestehen bleiben kann“, fügte sie hinzu.

[ad_2]

5/5 - (293 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein