Was gibt es Neues: Mit chatgpt im Web und anderen OpenAI-API-Diensten unter Verwendung des DALL·E 3-Modells generierte Bilder werden C2PA-Metadaten (Coalition for Content Provenance and Authenticity) enthalten, teilte das Unternehmen mit sein Blog am 6. Februar 2024. Das Unternehmen fügte hinzu, dass das Update bis zum 12. Februar für alle mobilen Benutzer bereitgestellt wird.
Was ist C2PA? Coalition for Content Provenance and Authenticity ist „ein Open-Source-Internetprotokoll, das auf Kryptographie basiert, um Details über die Herkunft eines Inhalts oder das, was Technologen als ‚Provenienz‘-Informationen bezeichnen, zu verschlüsseln“, an MIT Tech Review-Beitrag erklärt. Über C2PA betten Verlage, Unternehmen und andere Metadaten (Herkunftsdetails) in Medien ein, um deren Herkunft und zugehörige Informationen zu überprüfen. „C2PA gilt nicht nur für KI-generierte Bilder – derselbe Standard wird auch von Kameraherstellern, Nachrichtenorganisationen und anderen übernommen, um die Quelle und den Verlauf (oder die Herkunft) von Medieninhalten zu zertifizieren“, erklärte der OpenAI-Blogbeitrag weiter. Allerdings enthalten derzeit nur Bilder, die mit ChatGPT oder der OpenAI-API für DALL·E 3 generiert wurden, die C2PA-Metadaten.
Bilder zum Erhalt von Signaturen und Zusatzinformationen: Über die OpenAI-API erstellte Bilder enthalten eine Signatur (Wasserzeichen), die angibt, dass sie von DALL·E 3 generiert wurden, während in ChatGPT erstellte Bilder ein zusätzliches Manifest enthalten, um zu zeigen, dass der Inhalt mit ChatGPT erstellt wurde. Dem Blog zufolge entsteht dadurch eine Dual-Provenienz-Abstammungslinie (eine Aufzeichnung der Herkunft, Geschichte und Eigentumsverhältnisse des Inhalts).
Benutzer können Bilder anhand von Inhaltsanmeldeinformationen überprüfen: Benutzer, die überprüfen möchten, welche Tools zum Erstellen des Bildes verwendet wurden, können Websites wie Content Credentials Verify verwenden.
„Dies sollte darauf hinweisen, dass das Bild über unsere API oder ChatGPT generiert wurde, sofern die Metadaten nicht entfernt wurden“, heißt es im Blog.
C2PA ist keine narrensichere Maßnahme
Das Unternehmen fügte hinzu, dass solche Metadaten „kein Allheilmittel“ seien, um herauszufinden, welche KI-Tools zur Erstellung eines Bildes verwendet wurden. Einrichtungen wie Social-Media-Plattformen können die Metadaten aus hochgeladenen Bildern entfernen, und auch Aktionen wie das Erstellen eines Screenshots können sie entfernen. Das bedeutet, dass ein Bild, dem diese Metadaten fehlen, möglicherweise dennoch mit ChatGPT generiert wurde.
Während der MediaNama-Veranstaltung „Deep Fakes and Democracy“ sprach Gautham Koorma, ein Ingenieur und Forscher für maschinelles Lernen an der UC Berkeley, darüber, wie jede Wasserzeichentechnik von Schurken gebrochen wurde. Das soll nicht heißen, dass keine Wasserzeichen angebracht werden sollten, sondern dass die Leitplanke leicht von „einem raffinierten Gegner“ wie einem Fotobearbeitungstool durchbrochen werden kann. Aus diesem Grund empfahl er Einzelpersonen, auch nach anderen Anzeichen in einem Inhaltsteil Ausschau zu halten, wie z. B. unregelmäßiger Beleuchtung, Verzerrung der visuellen Elemente an bestimmten Stellen usw.
Bleiben Sie über technische Neuigkeiten auf dem Laufenden: Unser täglicher Newsletter mit der Top-Story des Tages von MediaNama, vor 9 Uhr in Ihrem Posteingang. Klicken Hier Melden Sie sich noch heute an!
Lesen Sie auch: