- Eine Studie, in der der Chatbot nach Bildern von CEOs gefragt wurde, zeigte in 99 von 100 Tests einen Mann
- Als man ihn bat, eine Sekretärin zu malen, zeigte er fast immer eine Frau
Stellen Sie sich einen erfolgreichen Investor oder einen wohlhabenden Geschäftsführer vor – wen würden Sie sich vorstellen?
Wenn Sie chatgpt fragen, handelt es sich mit ziemlicher Sicherheit um einen weißen Mann.
Dem Chatbot wurde „Sexismus“ vorgeworfen, nachdem er gebeten wurde, Bilder von Menschen in verschiedenen hochrangigen Berufen zu generieren.
Aus 100 Tests wurde 99 Mal ein Mann ausgewählt.
Im Gegensatz dazu entschied man sich bei der Bewerbung um eine Sekretärin bis auf ein einziges Mal für eine Frau.
Die Studie der persönlichen Finanzseite Finder ergab, dass jedes Mal eine weiße Person ausgewählt wurde – obwohl keine Rasse angegeben wurde.
Die Ergebnisse spiegeln nicht die Realität wider. Jedes dritte Unternehmen weltweit ist im Besitz einer Frau, während 42 Prozent der Vorstandsmitglieder des FTSE 100 im Vereinigten Königreich Frauen waren.
Wirtschaftsführer warnen davor, dass KI-Modelle „mit Vorurteilen behaftet“ seien, und forderten strengere Leitplanken, um sicherzustellen, dass sie nicht die eigenen Vorurteile der Gesellschaft widerspiegeln.
Schätzungen zufolge nutzen inzwischen 70 Prozent der Unternehmen automatisierte Bewerberverfolgungssysteme, um Talente zu finden und einzustellen.
Es wurden Bedenken geäußert, dass Frauen und Minderheiten auf dem Arbeitsmarkt leiden könnten, wenn diese Systeme auf ähnliche Weise wie ChatGPT geschult würden.
OpenAI, der Eigentümer von ChatGPT, ist nicht der erste Technologieriese, der wegen Ergebnissen, die scheinbar altmodische Stereotypen aufrecht erhalten, unter Beschuss gerät.
Diesen Monat wurde Meta beschuldigt, einen „rassistischen“ KI-Bildgenerator entwickelt zu haben, als Benutzer herausfanden, dass er sich keinen asiatischen Mann mit einer weißen Frau vorstellen konnte.
google war unterdessen gezwungen, sein KI-Tool Gemini zu pausieren, nachdem Kritiker es als „aufgewacht“ bezeichneten, weil es sich scheinbar weigerte, Bilder von Weißen zu erstellen.
Die neueste Studie hat 10 der beliebtesten kostenlosen Bildgeneratoren auf ChatGPT befragt Zeichnen Sie ein Bild einer typischen Person in einer Reihe hochkarätiger Berufe.
Alle Bildgeneratoren – die Millionen von Gesprächen ausgelöst hatten – nutzten die zugrunde liegende OpenAI-Software Dall-E, erhielten jedoch einzigartige Anweisungen und Kenntnisse.
In über 100 Tests zeigte jeder bei fast jeder Gelegenheit das Bild eines Mannes – nur einmal war ein Mann zu sehen Frau. Damals wurde gefragt, „jemanden zu zeigen, der im Finanzwesen arbeitet“.
Als jeder der Bildgeneratoren gebeten wurde, eine Sekretärin zu zeigen, war in neun von zehn Fällen eine Frau und nur einmal ein Mann zu sehen.
Während in den Bildbeschreibungen keine Rasse angegeben wurde, sind alle Bilder pDie für die Rollen vorgesehene Person schien weiß zu sein.
Wirtschaftsführer forderten gestern Abend stärkere Leitplanken in KI-Modellen zum Schutz vor solchen Vorurteilen.
Derek Mackenzie, Geschäftsführer des Technologie-Rekrutierungsspezialisten Investigo, sagte: „Während die Fähigkeit der generativen KI, riesige Informationsmengen zu verarbeiten, zweifellos das Potenzial hat, unser Leben einfacher zu machen, können wir uns der Tatsache nicht entziehen, dass viele Trainingsmodelle mit diesen Problemen behaftet sind.“ Vorurteile, die auf den Vorurteilen der Menschen beruhen.
„Dies ist ein weiteres Beispiel dafür, dass Menschen den Ergebnissen generativer KI nicht blind vertrauen sollten und dass die Fachkenntnisse, die zur Erstellung von Modellen der nächsten Generation und zur Bekämpfung eingebauter menschlicher Vorurteile erforderlich sind, von entscheidender Bedeutung sind.“
Pauline Buil von der Webmarketing-Firma Deployteq sagte: „Trotz all ihrer Vorteile müssen wir darauf achten, dass generative KI keine negativen Ergebnisse hervorbringt, die schwerwiegende Folgen für die Gesellschaft haben, von Urheberrechtsverletzungen bis hin zu Diskriminierung.“
„Schädliche Ergebnisse werden in KI-Trainingsmodelle zurückgeführt, was bedeutet, dass einige dieser KI-Modelle jemals von Voreingenommenheit erfahren werden, und das muss ein Ende haben.“
Ruhi Khan, Forscherin für Feminismus und KI an der London School of Economics, sagte, dass ChatGPT „in einer patriarchalischen Gesellschaft entstanden ist, hauptsächlich von Männern mit ihren eigenen Vorurteilen und Ideologien konzipiert und entwickelt und mit den Trainingsdaten gespeist wurde.“ weist auch aufgrund seiner sehr historischen Natur Mängel auf.
„KI-Modelle wie ChatGPT halten diese patriarchalen Normen aufrecht, indem sie sie einfach replizieren.“
Die Website von OpenAI gibt zu, dass ihr Chatbot „nicht frei von Vorurteilen und Stereotypen“ ist und fordert die Benutzer dringend auf, die von ihm erstellten Inhalte „sorgfältig zu überprüfen“.
In einer Liste von Punkten, die man „bedenken“ sollte, heißt es, dass das Modell auf westliche Ansichten ausgerichtet sei. Es fügt hinzu, dass es sich um einen „laufenden Forschungsbereich“ handele und Feedback zu Verbesserungsmöglichkeiten willkommen sei.
Das US-Unternehmen warnt außerdem davor, dass es bei der Interaktion mit dem Gerät auch Vorurteile des Benutzers „verstärken“ könne, etwa starke Meinungen zu Politik und Religion.
Sidrah Hassan von AND Digital: „Die rasante Entwicklung der generativen KI hat dazu geführt, dass Modelle ohne angemessene menschliche Führung und Intervention davonlaufen.“
„Um es klar auszudrücken: Wenn ich von ‚menschlicher Führung‘ spreche, muss das vielfältig und intersektional sein. Die bloße Anwesenheit menschlicher Führung ist nicht gleichbedeutend mit positiven und integrativen Ergebnissen.“
Eine Sprecherin der KI sagte: „Verzerrungen sind branchenweit ein bedeutendes Problem und wir haben Sicherheitsteams, die sich mit der Erforschung und Reduzierung von Verzerrungen und anderen Risiken in unseren Modellen befassen.“
„Wir verwenden einen mehrstufigen Ansatz, um dieses Problem anzugehen. Dazu gehört die Erforschung der besten Methoden zur Änderung von Trainingsdaten und Eingabeaufforderungen, um gerechtere Ergebnisse zu erzielen, die Verbesserung der Präzision unserer Inhaltsfiltersysteme und die Verbesserung sowohl der automatisierten als auch der menschlichen Überwachung.“
„Wir entwickeln unsere Modelle kontinuierlich weiter, um Verzerrungen zu reduzieren und schädliche Ergebnisse abzuschwächen.“