Die Authentifizierung von Online-Inhalten ist mit der explosionsartigen Verbreitung von KI zu einem großen Problem geworden, das es unter anderem ermöglicht, falsche Fotos von Menschen zu erstellen.
Veröffentlicht
Lesezeit: 1 Min
Ein Gegenmittel zu seinen eigenen Kreationen. OpenAI, das Startup hinter den beliebten Tools für generative künstliche Intelligenz ChatGPT und Dall-E, ermöglicht es Forschern nun, ein Tool zu testen, das erkennen soll, ob digitale Bilder von KI-Programmen erstellt wurden. Laut internen Tests mit einer früheren Version des Tools, „Es identifiziert etwa 98 % der Dall-E 3-Bilder korrekt. Weniger als 0,5 % der nicht von KI generierten Bilder wurden fälschlicherweise Dall-E 3 zugeordnet.“präzisierte das kalifornische Unternehmen.
Das größtenteils von Microsoft finanzierte Start-up gab jedoch an, dass sein Programm weniger effizient sei, wenn mit Dall-E 3 erstellte Bilder nachträglich retuschiert würden oder wenn sie von anderen Modellen generiert würden.
Eine Bezeichnung zur Identifizierung von KI-generierten Inhalten
OpenAI kündigte außerdem an, dass es nun Wasserzeichen zu KI-Bildern hinzufügen wird, um den Standards der Coalition for Content Provenance and Authenticity (C2PA) zu entsprechen, einer Initiative der Technologiebranche, die technische Standards zur Bestimmung der Herkunft und Authentizität digitaler Inhalte festlegt.
Letzten Monat gab die Meta Group (Facebook, Instagram) bekannt, dass sie ab Mai mit der Kennzeichnung von KI-generierten Inhalten nach dem C2PA-Standard beginnen werde. Auch sein Nachbar google hat sich der Initiative angeschlossen.
Die Authentifizierung von Online-Inhalten ist mit der Explosion der generativen KI zu einem Hauptproblem geworden, das es ermöglicht, auf einfache Anfrage alle Arten von Inhalten zu produzieren, darunter beispielsweise gefälschte Fotos von Personen oder gefälschte Audioaufnahmen zu Betrugszwecken.