Technik
Öffnen Sie Ihr virtuelles A-Augen.
Eine neue Studie, die den künstlich intelligenten Bildersteller von chatgpt testet, zeigte eine aggressivere Bevorzugung von Männern gegenüber Frauen, wenn er darum gebeten wurde, Geschäftsleute und Geschäftsführer abzubilden. laut Finanzunternehmen Finder.
Mit DALL-E – dem generativen, auf Eingabeaufforderungen basierenden Fotoersteller, der in ChatGPT von der Muttergesellschaft OpenAI integriert ist – zeigten 99 von 100 gerenderten Fotos eher Männer als Frauen.
Zu den nicht geschlechtsspezifischen Beschreibungen gehörten Ausdrücke wie „jemand, der im Finanzwesen arbeitet“, „ein erfolgreicher Investor“ und „der CEO eines erfolgreichen Unternehmens“.
Als sie gebeten wurden, Bilder einer Sekretärin zu erstellen, waren neun von zehn Frauen Frauen.
Die Forscher stellten außerdem kritisch fest, dass 99 der 100 Bilder weiße Männer zeigten – insbesondere schlanke, kraftvoll aussehende Typen wie Patrick Bateman aus „American Psycho“, die in geräumigen Büros mit Blick auf die Skylines der Stadt posierten.
In der Zwischenzeit, Daten von Pew Research aus dem Jahr 2023 berichteten, dass mehr als 10 % der Fortune-500-Unternehmen weibliche CEOs hatten und im Jahr 2021 nur 76 % der CEOs weiß waren, laut Zippia.
„KI-Unternehmen verfügen über die Möglichkeit, gefährliche Inhalte zu blockieren, und dasselbe System kann zur Diversifizierung der KI-Ergebnisse verwendet werden, und ich denke, das ist unglaublich wichtig“, sagte Omar Karim, a Kreativdirektor und KI-Bildmacher.
„Überwachung, Anpassung und eine inklusive Gestaltung sind alles Möglichkeiten, die zur Bewältigung dieses Problems beitragen können.“
Dies ist jedoch nicht der erste Versuch, bei dem KI auf eine geschlechtsspezifische Voreingenommenheit stößt.
Im Jahr 2018 hat Amazon ein Recruiting-Tool eingeführt, das sich selbst beigebracht hat Bewerberinnen werden nicht berücksichtigt.
Monate nach seiner Gründung geriet auch ChatGPT selbst in die Kritik wegen einer Voreingenommenheit gegenüber der New York Post, da sie Aufforderungen im Zusammenhang mit CNN bevorzugt behandelte.
Ein Bericht aus dem letzten Jahr ergab außerdem, dass ChatGPT eher dazu neigte, Hassreden gegen rechte Überzeugungen und Männer zuzulassen.
Mehr laden…
{{#isDisplay}} {{/isDisplay}}{{#isAniviewVideo}}