Die Welt der automatisierten Personalbeschaffung wird durch diese Entdeckung erschüttert. Forscher der University of Washington haben erhebliche Verzerrungen bei der Verarbeitung von Bewerbungen durch chatgpt aufgedeckt, eine KI, die häufig bei der Überprüfung von Lebensläufen eingesetzt wird. Diese Offenbarung wirft entscheidende Fragen zur Fairness und Zuverlässigkeit dieser Technologien im Rekrutierungsprozess auf.
Android 6.0.1 Marshmallow für das Motorola Moto X Style verfügbar
Studienergebnisse
Die Studie ergab, dass ChatGPT Lebensläufe mit der Erwähnung einer Behinderung durchweg niedriger einstuft. Um diese Hypothese zu testen, haben Forscher verschiedene behinderungsbezogene Begriffe verwendet. Die Ergebnisse zeigen eine anhaltende Diskriminierung auch bei gleichwertiger Qualifikation.
Die Forscher modifizierten einen Referenzlebenslauf, indem sie Auszeichnungen und Ehrungen hinzufügten, die auf eine Behinderung hindeuteten. ChatGPT hat diese modifizierten Lebensläufe systematisch abgewertet. Diese Entdeckung ist alarmierend für diejenigen, die für einen fairen und gerechten Rekrutierungsprozess auf KI angewiesen sind.
Ergebnisse und Implikationen
Von 60 Studien stand der Original-Lebenslauf in 75 % der Fälle an erster Stelle. Diese Voreingenommenheit begünstigt Lebensläufe ohne Erwähnung einer Behinderung. Dies stellt behinderte Bewerber vor ein Dilemma: Soll ihre Behinderung im Lebenslauf erwähnt werden oder nicht?
iphone 12 Pro vs. Samsung Galaxy Note 20 Ultra: Welches ist das schnellere Smartphone?
Selbst in einem anonymisierten und automatisierten Auswahlverfahren bleiben Vorurteile bestehen. Diese Situation ist besorgniserregend für die Inklusion und Gerechtigkeit in der Arbeitswelt.
🔍 Zusammenfassung | Einzelheiten |
---|---|
📉 Ranking-Bias | Lebensläufe, in denen eine Behinderung erwähnt wird, werden von ChatGPT systematisch abgewertet |
🔬 Methodik | Verwendung modifizierter Lebensläufe zum Testen von KI-Reaktionen |
📊 Ergebnisse | Der Original-Lebenslauf ohne Angabe der Behinderung wird in 75 % der Fälle bevorzugt |
KI-Halluzinationen: eine zusätzliche Gefahr
ChatGPT kann ableistische Rechtfertigungen „halluzinieren“. Diese Halluzinationen können der Bewerbung schaden, indem sie Urteile auf falschen Annahmen über die Fähigkeiten eines Bewerbers stützen.
google I/O 2016: Die Lotterie beginnt heute
Die Forscher stellten fest, dass diese Vorurteile durch eine Anpassung der KI-Richtlinien gemildert werden können. Abhängig von der genannten Behinderung bleiben jedoch unterschiedliche Ergebnisse bestehen, was die Komplexität des Problems verdeutlicht.
Um die Studie zusammenzufassen:
- ChatGPT diskriminiert Lebensläufe, in denen eine Behinderung erwähnt wird
- Auch nach Anpassungen bleiben Vorurteile bestehen
- Die Notwendigkeit einer verstärkten Überwachung von KI-Algorithmen
Der breitere Kontext der KI-Voreingenommenheit
Dies ist keine Premiere für die GPT-Modelle von OpenAI. Eine frühere Umfrage hatte bereits deutliche Rassenpräferenzen bei der Sortierung von Lebensläufen ergeben. OpenAI erhob daraufhin Einspruch und machte geltend, dass die Tests keinen praktischen Nutzen widerspiegelten.
Diese neue Studie bestätigt, dass die Vorurteile nicht anekdotisch sind. Sie weisen auf ein systemisches Problem beim Einsatz von KI für so wichtige Aufgaben wie die Personalbeschaffung hin.
Die Ergebnisse dieser Studie sollen Unternehmen dazu ermutigen, den Einsatz von KI in ihren Rekrutierungsprozessen zu überdenken. Wie können wir ein gerechteres und integrativeres System für alle Kandidaten garantieren?