Die Welt der automatisierten Personalbeschaffung wird durch diese Entdeckung erschüttert. Forscher der University of Washington haben erhebliche Verzerrungen bei der Verarbeitung von Bewerbungen durch chatgpt aufgedeckt, eine KI, die häufig bei der Überprüfung von Lebensläufen eingesetzt wird. Diese Offenbarung wirft entscheidende Fragen zur Fairness und Zuverlässigkeit dieser Technologien im Rekrutierungsprozess auf.

Android 6.0.1 Marshmallow für das Motorola Moto X Style verfügbar

Studienergebnisse

Die Studie ergab, dass ChatGPT Lebensläufe mit der Erwähnung einer Behinderung durchweg niedriger einstuft. Um diese Hypothese zu testen, haben Forscher verschiedene behinderungsbezogene Begriffe verwendet. Die Ergebnisse zeigen eine anhaltende Diskriminierung auch bei gleichwertiger Qualifikation.

Die Forscher modifizierten einen Referenzlebenslauf, indem sie Auszeichnungen und Ehrungen hinzufügten, die auf eine Behinderung hindeuteten. ChatGPT hat diese modifizierten Lebensläufe systematisch abgewertet. Diese Entdeckung ist alarmierend für diejenigen, die für einen fairen und gerechten Rekrutierungsprozess auf KI angewiesen sind.

Ergebnisse und Implikationen

Von 60 Studien stand der Original-Lebenslauf in 75 % der Fälle an erster Stelle. Diese Voreingenommenheit begünstigt Lebensläufe ohne Erwähnung einer Behinderung. Dies stellt behinderte Bewerber vor ein Dilemma: Soll ihre Behinderung im Lebenslauf erwähnt werden oder nicht?

iphone 12 Pro vs. Samsung Galaxy Note 20 Ultra: Welches ist das schnellere Smartphone?

Selbst in einem anonymisierten und automatisierten Auswahlverfahren bleiben Vorurteile bestehen. Diese Situation ist besorgniserregend für die Inklusion und Gerechtigkeit in der Arbeitswelt.

🔍 Zusammenfassung Einzelheiten
📉 Ranking-Bias Lebensläufe, in denen eine Behinderung erwähnt wird, werden von ChatGPT systematisch abgewertet
🔬 Methodik Verwendung modifizierter Lebensläufe zum Testen von KI-Reaktionen
📊 Ergebnisse Der Original-Lebenslauf ohne Angabe der Behinderung wird in 75 % der Fälle bevorzugt
Siehe auch  Macht über künstliche Intelligenz – ChatGPT auf vc.ru

KI-Halluzinationen: eine zusätzliche Gefahr

ChatGPT kann ableistische Rechtfertigungen „halluzinieren“. Diese Halluzinationen können der Bewerbung schaden, indem sie Urteile auf falschen Annahmen über die Fähigkeiten eines Bewerbers stützen.

google I/O 2016: Die Lotterie beginnt heute

Die Forscher stellten fest, dass diese Vorurteile durch eine Anpassung der KI-Richtlinien gemildert werden können. Abhängig von der genannten Behinderung bleiben jedoch unterschiedliche Ergebnisse bestehen, was die Komplexität des Problems verdeutlicht.

Um die Studie zusammenzufassen:

  • ChatGPT diskriminiert Lebensläufe, in denen eine Behinderung erwähnt wird
  • Auch nach Anpassungen bleiben Vorurteile bestehen
  • Die Notwendigkeit einer verstärkten Überwachung von KI-Algorithmen

Der breitere Kontext der KI-Voreingenommenheit

Dies ist keine Premiere für die GPT-Modelle von OpenAI. Eine frühere Umfrage hatte bereits deutliche Rassenpräferenzen bei der Sortierung von Lebensläufen ergeben. OpenAI erhob daraufhin Einspruch und machte geltend, dass die Tests keinen praktischen Nutzen widerspiegelten.

Diese neue Studie bestätigt, dass die Vorurteile nicht anekdotisch sind. Sie weisen auf ein systemisches Problem beim Einsatz von KI für so wichtige Aufgaben wie die Personalbeschaffung hin.

Die Ergebnisse dieser Studie sollen Unternehmen dazu ermutigen, den Einsatz von KI in ihren Rekrutierungsprozessen zu überdenken. Wie können wir ein gerechteres und integrativeres System für alle Kandidaten garantieren?

5/5 - (149 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein