Eine Bloomberg-Untersuchung ergab, dass chatgpt bei der Auswahl der Bewerber für Stellen eine rassistische Voreingenommenheit aufwies.
Olga Rolenko/Getty Images
  • Laut einer Bloomberg-Untersuchung zeigte ChatGPT von OpenAI rassistische Vorurteile bei der Überprüfung von Lebensläufen für Stellenangebote.
  • Laut Bloomberg hat das KI-Tool asiatische Kandidatinnen zu stark und schwarze Männer zu wenig ausgewählt.
  • KI wird als Möglichkeit angepriesen, Vorurteile bei der Einstellung zu reduzieren.

Wenn Sie auf der Suche nach einem Job sind, seien Sie vorsichtig: Das KI-Tool, das Ihren Lebenslauf überprüft, weist möglicherweise eine rassistische Voreingenommenheit auf, ähnlich wie bei manchen menschlichen Personalvermittlern.

ChatGPT von OpenAI ist zu einem beliebten Tool für Personalvermittler geworden, da die Einstellungszahlen Anfang 2024 ansteigen. Bloomberg berichtete am Freitag. Die Untersuchung der Nachrichtenagentur ergab jedoch, dass das Tool offenbar Namen bevorzugt, die im Allgemeinen mit asiatischen Bewerbern in Verbindung gebracht werden, als solche, die mit schwarzen Arbeitssuchenden in Verbindung gebracht werden.

Bloomberg erstellte Lebensläufe für fiktive Kandidaten und bat dann ChatGPT 3.5, sie für mehrere verschiedene Stellenangebote zu bewerten, von „Finanzingenieur“ bis „HR-Spezialist“.

Nachdem das Experiment 1.000 Mal durchgeführt wurde, stellte Bloomberg fest, dass Lebensläufe mit Namen, die mit asiatischen Frauen in Verbindung gebracht wurden, in 17,2 % der Fälle als Top-Kandidaten eingestuft wurden – der höchste Prozentsatz unter den acht von der Untersuchung getesteten rassen- und geschlechtsspezifischen Gruppen.

Das Gleiche gilt den Ergebnissen zufolge nur in 7,6 % der Fälle für schwarze Männer.

„Wenn GPT alle Lebensläufe gleich behandeln würde, würde jede der acht demografischen Gruppen in einem Achtel (12,5 %) der Fälle als Spitzenkandidat eingestuft werden“, berichtete Bloomberg.

Siehe auch  Präzedenzfall aufgeben: Argumente für die Einführung von ChatGPT an juristischen Fakultäten | David S. Kemp | Urteil

OpenAI reagierte nicht sofort auf die Bitte von Business Insider um einen Kommentar zu dem Bericht.

Das Unternehmen teilte Bloomberg mit, dass Unternehmen ChatGPT möglicherweise anpassen, wenn sie es zum Überprüfen von Lebensläufen verwenden. Personalvermittler können ihre eigenen Schutzmaßnahmen gegen Voreingenommenheit einführen, so das Unternehmen, indem sie beispielsweise Namen aus dem Auswahlprozess streichen.

Einstellungsprozesse umfassen in der Regel mehr als nur die Überprüfung von Namen und Lebensläufen, heißt es in dem Bericht. Bewerber eines bestimmten Geschlechts oder einer bestimmten Rasse würden jedoch „benachteiligt“, wenn ein Unternehmen nur ein KI-Tool verwenden würde, heißt es in dem Bericht und verweist auf den Standard der Bundesregierung für Einstellungsdiskriminierung.

BI berichtete zuvor, dass einige gehofft hatten, dass KI Voreingenommenheit bei der Einstellung verringern könnte – obwohl sie davor gewarnt hatten, dass die Technologie nur ein Werkzeug sein sollte, das menschliche Personalvermittler zur Besetzung von Stellen nutzen.

Aber die Voreingenommenheit der KI stellt eine große Herausforderung für die Technologie dar – möglicherweise sogar größer als das Risiko, dass sie empfindungsfähig wird.

Beispielsweise waren KI-generierte Gesichter von Weißen überzeugender als ähnliche Bilder von Farbigen, fanden Forscher letztes Jahr heraus.

Eine Erklärung: KI-Modelle werden stärker auf weiße Gesichter trainiert als auf die anderer Rassengruppen.

Joy Buolamwini, Informatikerin und Gründerin der Algorithmic Justice League, fand heraus, dass KI marginalisierten Gemeinschaften schaden und sie diskriminieren kann, auch durch Gesichtserkennung.

Axel Springer, die Muttergesellschaft von Business Insider, hat einen globalen Vertrag abgeschlossen, der es OpenAI ermöglicht, seine Modelle auf die Berichterstattung seiner Medienmarken zu trainieren.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein