OpenAI fügt Wasserzeichen zu Bildern hinzu, die von seiner DALLE-3-KI in chatgpt erstellt wurden, aber es ist lächerlich einfach, sie zu entfernen. So einfach, dass ChatGPT Ihnen selbst zeigt, wie es geht.

Die Ankündigung des Wasserzeichens erfolgt inmitten erneuter Kontroversen über KI-generierte „Deepfake“-Bilder. Erst letzte Woche war X (ehemals Twitter) gezwungen, die Suche nach Taylor Swift vorübergehend zu verhindern, nachdem der Dienst mit expliziten KI-generierten Bildern des Künstlers überschwemmt wurde.

OpenAI gab bekannt, dass es Wasserzeichen in Bildmetadaten einfügt – versteckten Code, der jedem Bild beiliegt –, anstatt Wasserzeichen sichtbar zu machen, wie man es oft bei Bildern aus Fotobibliotheken wie Getty sieht.

Das Unternehmen sagte, es füge die Wasserzeichen hinzu, um „anzugeben, dass das Bild über unsere API oder ChatGPT generiert wurde“.

„Wir glauben, dass die Anwendung dieser Methoden zur Herkunftsfeststellung und die Ermutigung der Benutzer, diese Signale zu erkennen, der Schlüssel zur Erhöhung der Vertrauenswürdigkeit digitaler Informationen sind“, fügte das Unternehmen in einem Blogbeitrag hinzu Ankündigung der neuen Funktiondas ab nächster Woche in Bildern erscheinen wird, die auf Mobilgeräten generiert werden.

Allerdings sei es sehr einfach, ein solches System zu umgehen, wie das Unternehmen in seinem eigenen Blogbeitrag einräumt.

Entfernen von ChatGPT-Wasserzeichen

Den in ChatGPT generierten Bildern werden bald Metadaten mithilfe des C2PA-Systems hinzugefügt, einem offenen Standard, der von vielen Medienorganisationen und Kameraherstellern zum Einbetten von Daten in Bilder verwendet wird.

Es gibt keinen unmittelbaren visuellen Hinweis darauf, dass ein Bild von der KI generiert wurde, aber Bilder können in Dienste wie gezogen werden Überprüfen Sie die Anmeldeinformationen des Inhalts ihre Herkunft überprüfen zu lassen.

Siehe auch  ChatGPT-Macher Sam Altman trifft sich heute mit Premierminister Modi

Hier habe ich beispielsweise ein mit ChatGPT erstelltes Bild in Content Credentials Verify gezogen und festgestellt, dass das Bild vom KI-Dienst generiert wurde. Auch wenn das neue Metadatensystem noch nicht eingeführt wurde, enthalten von ChatGPT generierte Bilder bereits einen Metadaten-Link zurück zu ChatGPT, sodass sie von solchen Diensten identifiziert werden können.

Es reicht jedoch aus, einfach einen Screenshot genau desselben Bildes zu erstellen, um die identifizierenden Metadaten zu entfernen und Dienste wie Content Credentials Verify nicht in der Lage zu sein, festzustellen, ob ein Bild KI-generiert ist oder nicht.

Und selbst wenn Sie die Screenshot-Methode nicht verwenden möchten, gibt es andere einfache Möglichkeiten, die Metadaten zu entfernen, wie ChatGPT selbst erklärt:

Zur Verteidigung von OpenAI und wie ChatGPT selbst erklärt, gibt es legitime Datenschutz- und Sicherheitsgründe, warum Sie Bildmetadaten entfernen möchten. Whistleblower oder Reporter, die Bilder aus Kriegsgebieten versenden, möchten möglicherweise beispielsweise Daten entfernen, die ihren genauen Standort verraten könnten. Oder Eltern möchten möglicherweise keine standortbezogenen Daten, wenn sie Fotos ihrer Kinder teilen.

Dennoch ist es eine triviale Aufgabe, die Daten zu entfernen, die ein Bild als KI-generiert identifizieren. „Metadaten wie C2PA sind kein Allheilmittel zur Lösung von Herkunftsfragen“, gibt OpenAI in seinem Blogbeitrag zu.

„Es kann leicht versehentlich oder absichtlich entfernt werden. Beispielsweise entfernen die meisten Social-Media-Plattformen heutzutage Metadaten aus hochgeladenen Bildern, und durch Aktionen wie das Erstellen eines Screenshots können diese ebenfalls entfernt werden. Daher kann es sein, dass ein Bild, dem diese Metadaten fehlen, mit ChatGPT oder unserer API generiert wurde.“

Siehe auch  Siri to AppleCare, Mark Gurman verrät, wo Apple seine ChatGPT-ähnliche App, genannt Apple GPT, einsetzen könnte

Trotz der Leichtigkeit, mit der es umgangen werden kann, ist das Unternehmen davon überzeugt, dass „die Einführung dieser Methoden zur Feststellung der Herkunft und die Ermutigung der Benutzer, diese Signale zu erkennen, der Schlüssel zur Erhöhung der Vertrauenswürdigkeit digitaler Informationen ist.“

Die in Bilder eingefügten C2PA-Metadaten werden nicht für andere Arten von Inhalten verwendet, die vom KI-Dienst generiert werden, einschließlich Text und Audio.

KI-Deepfake-Ängste

Die Versuche von OpenAI, die Erkennung von KI-Bildern zu verbessern, erfolgen vor dem Hintergrund wachsender Befürchtungen, dass KI in einer Reihe von Szenarien verheerende Auswirkungen haben könnte.

Schulen verwenden bereits eine Vielzahl anderer (unvollkommener) Methoden, um festzustellen, ob Inhalte von Schülern oder KI geschrieben wurden, einschließlich der Suche nach verräterischen Schlüsselwörtern.

Da im Jahr 2024 in vielen westlichen Demokratien Wahlen anstehen, wächst die Befürchtung, dass gefälschte, von der KI generierte Bilder und Videos den Wahlkampf beeinträchtigen könnten.

Taylor Swift war diese Woche erneut in eine Deepfake-Kontroverse verwickelt, als ein Video, das den Musiker zu zeigen schien, der eine Flagge hält, die für Donald Trump wirbt, in den sozialen Medien viral ging. Es stellte sich heraus, dass das Video gefälscht war.

KI-generierte Deepfakes werden auch zur Begehung von Straftaten eingesetzt. Diese Woche wurde berichtet, dass Betrüger ein Deepfake-Video nutzten, um einen Finanzmitarbeiter davon zu überzeugen, dass er in einem Videoanruf mit seinem Finanzvorstand spreche, was zu dem Ergebnis führte Diebstahl von 25 Millionen Dollar.

Folge mir auf Twitter oder LinkedIn. Kasse Mein Webseite.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein