OpenAI fügt Wasserzeichen zu Bildern hinzu, die von seiner DALLE-3-KI in chatgpt erstellt wurden, aber es ist lächerlich einfach, sie zu entfernen. So einfach, dass ChatGPT Ihnen selbst zeigt, wie es geht.

Die Ankündigung des Wasserzeichens erfolgt inmitten erneuter Kontroversen über KI-generierte „Deep Fake“-Bilder. Erst letzte Woche war X (ehemals Twitter) gezwungen, die Suche nach Taylor Swift vorübergehend zu verhindern, nachdem der Dienst mit expliziten KI-generierten Bildern des Künstlers überschwemmt wurde.

OpenAI gab bekannt, dass es Wasserzeichen in Bildmetadaten einfügt – versteckten Code, der jedem Bild beiliegt –, anstatt Wasserzeichen sichtbar zu machen, wie man es oft bei Bildern aus Fotobibliotheken wie Getty sieht.

Das Unternehmen sagte, es füge die Wasserzeichen hinzu, um „anzugeben, dass das Bild über unsere API oder ChatGPT generiert wurde“.

„Wir glauben, dass die Übernahme dieser Methoden zur Feststellung der Herkunft und die Ermutigung der Benutzer, diese Signale zu erkennen, der Schlüssel zur Erhöhung der Vertrauenswürdigkeit digitaler Informationen sind“, fügte das Unternehmen hinzu Blogbeitrag zur Ankündigung der neuen Funktiondas ab nächster Woche in Bildern erscheinen wird, die auf Mobilgeräten generiert werden.

Allerdings sei es sehr einfach, ein solches System zu umgehen, wie das Unternehmen in seinem eigenen Blogbeitrag einräumt.

Entfernen von ChatGPT-Wasserzeichen

Den in ChatGPT generierten Bildern werden bald Metadaten mithilfe des C2PA-Systems hinzugefügt, einem offenen Standard, der von vielen Medienorganisationen und Kameraherstellern zum Einbetten von Daten in Bilder verwendet wird.

Es gibt keinen unmittelbaren visuellen Hinweis darauf, dass ein Bild von der KI generiert wurde, aber Bilder können in Dienste wie gezogen werden Überprüfen Sie die Anmeldeinformationen des Inhalts ihre Herkunft prüfen zu lassen.

Siehe auch  Multimedia-Berichte, ChatGPT kann Patienten dabei helfen, Bildgebungsergebnisse zu verstehen

Hier habe ich beispielsweise ein mit ChatGPT erstelltes Bild in Content Credentials Verify gezogen und festgestellt, dass das Bild vom KI-Dienst generiert wurde. Auch wenn das neue Metadatensystem noch nicht eingeführt wurde, enthalten von ChatGPT generierte Bilder bereits einen Metadaten-Link zurück zu ChatGPT, sodass sie von solchen Diensten identifiziert werden können.

Es reicht jedoch aus, einfach einen Screenshot genau desselben Bildes zu erstellen, um die identifizierenden Metadaten zu entfernen und Dienste wie Content Credentials Verify nicht in der Lage zu sein, festzustellen, ob ein Bild KI-generiert ist oder nicht.

Und selbst wenn Sie die Screenshot-Methode nicht verwenden möchten, gibt es andere einfache Möglichkeiten, die Metadaten zu entfernen, wie ChatGPT selbst erklärt:

„Metadaten wie C2PA sind kein Allheilmittel zur Lösung von Herkunftsfragen“, gibt OpenAI in seinem Blogbeitrag zu.

„Es kann leicht versehentlich oder absichtlich entfernt werden. Beispielsweise entfernen die meisten Social-Media-Plattformen heutzutage Metadaten aus hochgeladenen Bildern, und durch Aktionen wie das Erstellen eines Screenshots können diese ebenfalls entfernt werden. Daher kann es sein, dass ein Bild, dem diese Metadaten fehlen, mit ChatGPT oder unserer API generiert wurde.“

Dennoch ist das Unternehmen davon überzeugt, dass „die Einführung dieser Methoden zur Feststellung der Herkunft und die Ermutigung der Benutzer, diese Signale zu erkennen, der Schlüssel zur Erhöhung der Vertrauenswürdigkeit digitaler Informationen ist“.

Nur-Bild-Metadaten

Die in Bilder eingefügten C2PA-Metadaten werden nicht für andere Arten von Inhalten verwendet, die vom KI-Dienst generiert werden, einschließlich Text und Audio. Schulen verwenden bereits eine Vielzahl anderer (unvollkommener) Methoden, um festzustellen, ob Inhalte von Schülern oder KI geschrieben wurden, einschließlich der Suche nach verräterischen Schlüsselwörtern.

Siehe auch  Sam Altman, CEO von OpenAI, sagt, ChatGPT sei ein „Kanal“, der auf „magische Intelligenz am Himmel“ abzielt.

Da im Jahr 2024 in vielen westlichen Demokratien Wahlen anstehen, wächst die Befürchtung, dass gefälschte, von der KI generierte Bilder und Videos den Wahlkampf beeinträchtigen könnten.

Taylor Swift war diese Woche erneut in eine tiefe Fake-Kontroverse verwickelt, als ein Video, das den Musiker zu zeigen schien, der eine Flagge hält, die für Donald Trump wirbt, in den sozialen Medien viral ging. Es stellte sich heraus, dass das Video gefälscht war.

Folge mir auf Twitter oder LinkedIn. Kasse Mein Webseite.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein