KI-generierte Bilder von Frauen, die Saris tragen

Die einzigen wirklichen Grenzen des DALL-E Mini sind die Kreativität Ihrer eigenen Eingabeaufforderungen und seine unheimliche Pinselführung. Das für alle zugängliche KI-Internet-Bildgenerator kann verschwommene, verdrehte, schmelzende Annäherungen an jedes Szenario heraufbeschwören, das Sie sich ausdenken können. Seinfeld-Albträume? Du Ich habs. Hofraumskizzen von Tieren, Fahrzeugeund bemerkenswerte Leute in unterschiedlich Kombinationen? Kinderleicht. Noch nie gesehen Horror-Monster aus dem Geist der Geisteslosen. Klar was auch immer.

Aber geben Sie DALL-E Mini buchstäblich nichts, und es zeigt schnell die Grenzen seiner eigenen „Vorstellungskraft“. Ohne Richtung oder Anleitung scheint das KI-Modell stecken zu bleiben. Ganz ohne Aufforderung wird Ihnen das Programm zweifellos das Bild einer Frau in einem Sari (einem in ganz Südasien häufig getragenen Kleidungsstück) zurückgeben.

Warum genau, weiß selbst der Entwickler des Tools, Boris Dayma, nicht zu berichten von Rest der Welt. „Es ist ziemlich interessant und ich bin mir nicht sicher, warum es passiert“, sagte er zu Rest of World über das Phänomen.

Raster aus 9 KI-generierten Bildern

Was ist DALL-E Mini?

DALL-E Mini wurde inspiriert von DALL-E 2, ein leistungsstarker Bildgenerator von OpenAI. Die Bilder, die DALL-E 2 erstellt, sind viel realistischer als die, die „Mini“ machen kann, aber der Kompromiss ist, dass es zu viel Rechenleistung erfordert, um von jedem alten Internetnutzer herumgeworfen zu werden. Es gibt eine begrenzte Kapazität und eine Warteliste.

Daher entschied sich Dayma, der nicht mit OpenAI verbunden ist, dafür, seine eigene, weniger exklusive Version zu erstellen, die im Juli 2021 auf den Markt kam. In den letzten Wochen ist sie sehr beliebt geworden. Das Programm hat jeden Tag etwa 5 Millionen Anfragen verwaltet, sagte Dayma gegenüber Rest of World. Ab Montag wurde DALL-E Mini umbenannt Kreide und auf Drängen von OpenAI auf einen neuen Domainnamen umgestellt.

Siehe auch  Federal Agency hat dem Weißen Haus den Kauf von NSO Group Spyware missachtet

Wie jedes andere Modell der künstlichen Intelligenz erstellt DALL-E Mini/Craiyon Ausgaben basierend auf Trainingseingaben. Im Fall von Mini wurde das Programm mit einer Diät von 15 Millionen Bild- und Beschriftungspaaren und weiteren 14 Millionen Bildern trainiert – plus dem Chaos des offenen Internets.

Aus dem Rest der Welt:

Das DALL·E-Minimodell wurde anhand von drei Hauptdatensätzen entwickelt: Datensatz für konzeptionelle Untertiteldas 3 Millionen Bild- und Beschriftungspaare enthält; Konzeptionelle 12Mdas 12 Millionen Bild- und Beschriftungspaare enthält, und The OpenAIs Korpus von etwa 15 Millionen Bildern. Pedro Cuenca, Mitschöpfer von Dayma und DALL·E mini, bemerkte, dass ihr Modell auch mit ungefilterten Daten aus dem Internet trainiert wurde, was es für unbekannte und unerklärliche Verzerrungen in Datensätzen öffnet, die auf Bilderzeugungsmodelle durchsickern können.

Und diese zugrunde liegenden Daten haben mit ziemlicher Sicherheit etwas mit dem Sari-Phänomen zu tun. Der Sari-Stand der Dinge, wenn Sie so wollen.

Raster aus neun KI-generierten Bildern

Warum ist DALL-E Mini Bleiben Sie bei Saris hängen?

Dayma schlug vor, dass Bilder von südasiatischen Frauen in Saris in diesen Original-Fotosets, die DALL-E Mini füttern, möglicherweise stark vertreten waren. Und dass die Macke auch etwas mit der Länge der Bildunterschrift zu tun haben könnte, da die KI möglicherweise Null-Zeichen-Eingabeaufforderungen mit kurzen Bildbeschreibungen verknüpft.

Michael Cook, ein KI-Forscher an der Queen Mary University in London, sagte Rest of World jedoch, er sei sich der Überrepräsentationstheorie nicht so sicher. „Typischerweise haben maschinelle Lernsysteme das umgekehrte Problem – sie enthalten tatsächlich nicht genügend Fotos von nicht-weißen Menschen“, sagte er.

Stattdessen glaubt Cook, dass der Ursprung in einer sprachlichen Verzerrung des Datenfilterprozesses liegen könnte. „Eine Sache, die mir beim Lesen aufgefallen ist, ist, dass viele dieser Datensätze Text entfernen, der nicht Englisch ist“, sagte er. Bildunterschriften, die beispielsweise Hindi enthalten, könnten entfernt werden, sodass Bilder ohne unterstützenden, erklärenden Text oder Beschriftungen frei in der ursprünglichen KI-Suppe schweben, erklärte er.

Siehe auch  Universal Orlando und Islands of Adventure Movie Rides, Rangliste

Bisher konnten weder Cooks noch Daymas Ideen bewiesen werden, aber beide sind gute Beispiele für die Art von Problemen, die in der KI sehr häufig vorkommen. Von Menschen programmiert und trainiert, ist künstliche Intelligenz nur so narrensicher wie ihre Schöpfer. Wenn Sie einen Bildgenerator mit einem Keks füttern, wird er einen Haufen Kekse ausspucken. Und weil wir in der Hölle leben, trägt die KI die unglückliche Last von menschliche Vorurteile und damit auch Stereotypen.

So lustig es auch sein mag zu denken, dass das Bild „Frau im Sari“ eine Art Urbotschaft aus den Tiefen des ungehinderten Internets ist, die Realität ist, dass es wahrscheinlich das Nebenprodukt eines Datenzufalls oder einer einfachen alten Voreingenommenheit ist. Die Frau im Sari ist ein Rätsel, aber die bestehende Probleme von KI sind es nicht.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein