• Eine Studie, in der der Chatbot nach Bildern von CEOs gefragt wurde, zeigte in 99 von 100 Tests einen Mann
  • Als man ihn bat, eine Sekretärin zu malen, zeigte er fast immer eine Frau

Stellen Sie sich einen erfolgreichen Investor oder einen wohlhabenden Geschäftsführer vor – wen würden Sie sich vorstellen?

Wenn Sie chatgpt fragen, handelt es sich mit ziemlicher Sicherheit um einen weißen Mann.

Dem Chatbot wurde „Sexismus“ vorgeworfen, nachdem er gebeten wurde, Bilder von Menschen in verschiedenen hochrangigen Berufen zu generieren.

Aus 100 Tests wurde 99 Mal ein Mann ausgewählt.

Im Gegensatz dazu entschied man sich bei der Bewerbung um eine Sekretärin bis auf ein einziges Mal für eine Frau.

ChatGPT wird Sexismus vorgeworfen, nachdem in 99 von 100 Fällen ein weißer Mann identifiziert wurde, als er gebeten wurde, ein Bild von einem hochrangigen Job zu erstellen
LESEN SIE MEHR: Metas KI wird Rassismus vorgeworfen, da schockierte Benutzer sagen, dass Mark Zuckerbergs Chatbot sich weigert, sich einen asiatischen Mann mit einer weißen Frau vorzustellen

Die Studie der persönlichen Finanzseite Finder ergab, dass jedes Mal eine weiße Person ausgewählt wurde – obwohl keine Rasse angegeben wurde.

Die Ergebnisse spiegeln nicht die Realität wider. Jedes dritte Unternehmen weltweit ist im Besitz einer Frau, während 42 Prozent der Vorstandsmitglieder des FTSE 100 im Vereinigten Königreich Frauen waren.

Wirtschaftsführer warnen davor, dass KI-Modelle „mit Vorurteilen behaftet“ seien, und forderten strengere Leitplanken, um sicherzustellen, dass sie nicht die eigenen Vorurteile der Gesellschaft widerspiegeln.

Schätzungen zufolge nutzen inzwischen 70 Prozent der Unternehmen automatisierte Bewerberverfolgungssysteme, um Talente zu finden und einzustellen.

Es wurden Bedenken geäußert, dass Frauen und Minderheiten auf dem Arbeitsmarkt leiden könnten, wenn diese Systeme auf ähnliche Weise wie ChatGPT geschult würden.

OpenAI, der Eigentümer von ChatGPT, ist nicht der erste Technologieriese, der wegen Ergebnissen, die scheinbar altmodische Stereotypen aufrecht erhalten, unter Beschuss gerät.

Siehe auch  Google stellt Gemini vor: einen gewaltigen Herausforderer für ChatGPT

Diesen Monat wurde Meta beschuldigt, einen „rassistischen“ KI-Bildgenerator entwickelt zu haben, als Benutzer herausfanden, dass er sich keinen asiatischen Mann mit einer weißen Frau vorstellen konnte.

google war unterdessen gezwungen, sein KI-Tool Gemini zu pausieren, nachdem Kritiker es als „aufgewacht“ bezeichneten, weil es sich scheinbar weigerte, Bilder von Weißen zu erstellen.

Als ich gebeten wurde, das Bild einer Sekretärin zu malen, war in neun von zehn Fällen eine weiße Frau zu sehen

Warum hat ChatGPT hauptsächlich Bilder von Männern generiert? Ein Experte erklärt…

Da zwei von drei ChatGPT-Benutzern männlich sind, wird der Chatbot – und die Tech-Branche selbst – laut Ruhi Khan weiterhin von Männern dominiert.

Die Forscherin an der London School of Economics, die den Übergang zwischen Feminismus und KI untersucht hat, sagte: „ChatGPT wurde nicht im luftleeren Raum geboren.“

„Es entstand in einer patriarchalischen Gesellschaft, wurde hauptsächlich von Männern mit ihren eigenen Vorurteilen und Ideologien konzipiert und entwickelt und mit Trainingsdaten gefüttert, die aufgrund ihrer sehr historischen Natur auch fehlerhaft sind.“

„Es ist also kein Wunder, dass generative KI-Modelle wie ChatGPT diese patriarchalen Normen aufrechterhalten, indem sie sie einfach replizieren.“

„Bei 100 Millionen Nutzern pro Woche werden solche veralteten und diskriminierenden Ideen Teil eines Narrativs, das Frauen aus Räumen ausschließt, die sie lange Zeit nur schwer einnehmen konnten.“

Die neueste Studie hat 10 der beliebtesten kostenlosen Bildgeneratoren auf ChatGPT befragt Zeichnen Sie ein Bild einer typischen Person in einer Reihe hochkarätiger Berufe.

Alle Bildgeneratoren – die Millionen von Gesprächen ausgelöst hatten – nutzten die zugrunde liegende OpenAI-Software Dall-E, erhielten jedoch einzigartige Anweisungen und Kenntnisse.

In über 100 Tests zeigte jeder bei fast jeder Gelegenheit das Bild eines Mannes – nur einmal war ein Mann zu sehen Frau. Damals wurde gefragt, „jemanden zu zeigen, der im Finanzwesen arbeitet“.

Siehe auch  Stack Overflow verlor in anderthalb Jahren etwa ein Drittel seines Datenverkehrs. ChatGPT, das aus seinen Daten gelernt hat, kann eine Website „zerstören“.

Als jeder der Bildgeneratoren gebeten wurde, eine Sekretärin zu zeigen, war in neun von zehn Fällen eine Frau und nur einmal ein Mann zu sehen.

Während in den Bildbeschreibungen keine Rasse angegeben wurde, sind alle Bilder pDie für die Rollen vorgesehene Person schien weiß zu sein.

Wirtschaftsführer forderten gestern Abend stärkere Leitplanken in KI-Modellen zum Schutz vor solchen Vorurteilen.

Derek Mackenzie, Geschäftsführer des Technologie-Rekrutierungsspezialisten Investigo, sagte: „Während die Fähigkeit der generativen KI, riesige Informationsmengen zu verarbeiten, zweifellos das Potenzial hat, unser Leben einfacher zu machen, können wir uns der Tatsache nicht entziehen, dass viele Trainingsmodelle mit diesen Problemen behaftet sind.“ Vorurteile, die auf den Vorurteilen der Menschen beruhen.

„Dies ist ein weiteres Beispiel dafür, dass Menschen den Ergebnissen generativer KI nicht blind vertrauen sollten und dass die Fachkenntnisse, die zur Erstellung von Modellen der nächsten Generation und zur Bekämpfung eingebauter menschlicher Vorurteile erforderlich sind, von entscheidender Bedeutung sind.“

Pauline Buil von der Webmarketing-Firma Deployteq sagte: „Trotz all ihrer Vorteile müssen wir darauf achten, dass generative KI keine negativen Ergebnisse hervorbringt, die schwerwiegende Folgen für die Gesellschaft haben, von Urheberrechtsverletzungen bis hin zu Diskriminierung.“

„Schädliche Ergebnisse werden in KI-Trainingsmodelle zurückgeführt, was bedeutet, dass einige dieser KI-Modelle jemals von Voreingenommenheit erfahren werden, und das muss ein Ende haben.“

Die Ergebnisse spiegeln nicht die Realität wider: Jedes dritte Unternehmen weltweit ist im Besitz von Frauen
LESEN SIE MEHR: Jetzt weigert sich Googles „absurd aufgewachte“ Gemini-KI, Pädophilie als falsch zu verurteilen – nachdem sie wegen „verschiedener“, aber historisch ungenauer Bilder angegriffen wurde

Ruhi Khan, Forscherin für Feminismus und KI an der London School of Economics, sagte, dass ChatGPT „in einer patriarchalischen Gesellschaft entstanden ist, hauptsächlich von Männern mit ihren eigenen Vorurteilen und Ideologien konzipiert und entwickelt und mit den Trainingsdaten gespeist wurde.“ weist auch aufgrund seiner sehr historischen Natur Mängel auf.

Siehe auch  ChatGPT hilft Zahnmedizinstudenten, ihr Wissen zu behalten und ihre Leistung zu verbessern

„KI-Modelle wie ChatGPT halten diese patriarchalen Normen aufrecht, indem sie sie einfach replizieren.“

Die Website von OpenAI gibt zu, dass ihr Chatbot „nicht frei von Vorurteilen und Stereotypen“ ist und fordert die Benutzer dringend auf, die von ihm erstellten Inhalte „sorgfältig zu überprüfen“.

In einer Liste von Punkten, die man „bedenken“ sollte, heißt es, dass das Modell auf westliche Ansichten ausgerichtet sei. Es fügt hinzu, dass es sich um einen „laufenden Forschungsbereich“ handele und Feedback zu Verbesserungsmöglichkeiten willkommen sei.

Das US-Unternehmen warnt außerdem davor, dass es bei der Interaktion mit dem Gerät auch Vorurteile des Benutzers „verstärken“ könne, etwa starke Meinungen zu Politik und Religion.

Sidrah Hassan von AND Digital: „Die rasante Entwicklung der generativen KI hat dazu geführt, dass Modelle ohne angemessene menschliche Führung und Intervention davonlaufen.“

„Um es klar auszudrücken: Wenn ich von ‚menschlicher Führung‘ spreche, muss das vielfältig und intersektional sein. Die bloße Anwesenheit menschlicher Führung ist nicht gleichbedeutend mit positiven und integrativen Ergebnissen.“

Eine Sprecherin der KI sagte: „Verzerrungen sind branchenweit ein bedeutendes Problem und wir haben Sicherheitsteams, die sich mit der Erforschung und Reduzierung von Verzerrungen und anderen Risiken in unseren Modellen befassen.“

„Wir verwenden einen mehrstufigen Ansatz, um dieses Problem anzugehen. Dazu gehört die Erforschung der besten Methoden zur Änderung von Trainingsdaten und Eingabeaufforderungen, um gerechtere Ergebnisse zu erzielen, die Verbesserung der Präzision unserer Inhaltsfiltersysteme und die Verbesserung sowohl der automatisierten als auch der menschlichen Überwachung.“

„Wir entwickeln unsere Modelle kontinuierlich weiter, um Verzerrungen zu reduzieren und schädliche Ergebnisse abzuschwächen.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein