OpenAI hat DALL-E Version 3 auf den Markt gebracht, um Benutzern von chatgpt Plus und Enterprise Edition klarere und lebendigere Bildgenerierungsdienste bereitzustellen, und hat einen Bildklassifikator zur Bekämpfung gefälschter Informationen entwickelt, der darauf abzielt, KI-generierte Bilder zu identifizieren und sein Engagement für Produktverantwortung zu demonstrieren.

OpenAI hat diese Woche die neueste Version von DALL-E 3 für den ChatGPT Plus-Abonnementdienst (ab 20 $ pro Monat) und ChatGPT for Enterprise verfügbar gemacht.

OpenAI sagte, dass die von DALL-E erzeugten Bilder im Vergleich zur vorherigen Generation nicht nur lebendiger seien, sondern auch klarere Details aufweisen. DALL-E 3 kann komplexe Details, einschließlich Text, Hände und Gesichter, stabil erzeugen. Darüber hinaus reagiert es besonders gut auf mehrere oder komplexere Eingabeaufforderungen und unterstützt sowohl Bilder im Quer- als auch im Hochformat.

Darüber hinaus ermöglicht DALL-E 3 Benutzern auch die Generierung von in Bildern eingebettetem Text, was sich ideal für Marketing, Branding und andere kommerzielle visuelle Inhalte wie Werbebilder oder Verkaufsmaterialien eignet. Damit bietet DALL-E 3 mehr Funktionen als einige rein bildgenerierende KI-Dienste wie Adobe Firefly 2 und midjourney.

OpenAI bietet auch einige Beispiele für die Verwendung von DALL-E 3 zum Generieren von Bildern aus ChatGPT Plus, einschließlich der Generierung von Bildern für Schulberichte oder Firmenlogos.

KI-Bildklassifikator bekämpft Desinformation und politische Propaganda

Darüber hinaus veröffentlichte OpenAI diese Woche auch einen Forschungsbericht, in dem erläutert wurde, wie DALL-E 3 entwickelt wurde, und dass es einen Bildklassifikator zur Bekämpfung von Desinformation entwickelt. KI-generierte Desinformation ist in den letzten Wochen seit dem Konflikt zwischen Israel und der Hamas immer häufiger geworden. OpenAI wies darauf hin, dass die intern entwickelten Tools des Unternehmens dabei helfen können, festzustellen, ob ein Bild von DALL-E generiert wurde. Erste Auswertungen zeigen, dass ihr Tool DALL-generierte Bilder mit einer Genauigkeit von 99 % identifizieren kann, wenn sie unverändert sind. Wenn das Bild häufige Änderungen erfahren hat, wie z. B. Zuschneiden, Größenänderung, JPEG-Komprimierung oder Text oder Bilder, die aus echten Bildern ausgeschnitten und dann auf andere generierte Bilder übertragen wurden, liegt die Erkennungsrate ebenfalls bei 95 %.

Siehe auch  Laut einer Studie kann ChatGPT Aktienkursbewegungen vorhersagen

Dennoch kann dieser Klassifikator derzeit nur Bilder beurteilen, die möglicherweise von DALL-E generiert werden, aber keine eindeutige Schlussfolgerung liefern. In Zukunft könnte dieser Klassifikator Teil eines leistungsstarken Werkzeugsatzes werden, mit dem Benutzer feststellen können, ob ein Ton oder ein Bild von KI erzeugt wird.

Dieser Klassifikator ist offensichtlich der Versuch von OpenAI, seine Verantwortung für das Produkt zu zeigen. Allerdings hatte OpenAI zuvor ein Tool auf den Markt gebracht, das behauptete, von KI generierte Texte interpretieren zu können, wurde jedoch nach nur einem halben Jahr zurückgezogen. Da die Genauigkeit zu gering war, konnte es auch von Menschen und KI generierte Texte, insbesondere die, falsch einschätzen Werke von Ausländern. OpenAI hat jedoch nicht gesagt, wann der Klassifikator entwickelt wird.

Quelle:VentureBeat

5/5 - (455 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein