Die Authentifizierung von Online-Inhalten ist mit der explosionsartigen Verbreitung von KI zu einem großen Problem geworden, das es unter anderem ermöglicht, falsche Fotos von Menschen zu erstellen.

64A68815Cd1A7 Placeholder 36B69Ec8

Veröffentlicht

Lesezeit: 1 Min

080 Hl Jmbarrere 2377362 663B19C70Fc0A618811644chatgpt, das vom amerikanischen Unternehmen OpenAI entwickelte Tool für künstliche Intelligenz. (JEAN-MARC BARRERE / HANS LUCAS / AFP)” width=”432″ height=”243″ sizes=”100vw”/>

Ein Gegenmittel zu seinen eigenen Kreationen. OpenAI, das Startup hinter den beliebten Tools für generative künstliche Intelligenz ChatGPT und Dall-E, ermöglicht es Forschern nun, ein Tool zu testen, das erkennen soll, ob digitale Bilder von KI-Programmen erstellt wurden. Laut internen Tests mit einer früheren Version des Tools, „Es identifiziert etwa 98 % der Dall-E 3-Bilder korrekt. Weniger als 0,5 % der nicht von KI generierten Bilder wurden fälschlicherweise Dall-E 3 zugeordnet.“präzisierte das kalifornische Unternehmen.

Das größtenteils von Microsoft finanzierte Start-up gab jedoch an, dass sein Programm weniger effizient sei, wenn mit Dall-E 3 erstellte Bilder nachträglich retuschiert würden oder wenn sie von anderen Modellen generiert würden.

Eine Bezeichnung zur Identifizierung von KI-generierten Inhalten

OpenAI kündigte außerdem an, dass es nun Wasserzeichen zu KI-Bildern hinzufügen wird, um den Standards der Coalition for Content Provenance and Authenticity (C2PA) zu entsprechen, einer Initiative der Technologiebranche, die technische Standards zur Bestimmung der Herkunft und Authentizität digitaler Inhalte festlegt.

Letzten Monat gab die Meta Group (Facebook, Instagram) bekannt, dass sie ab Mai mit der Kennzeichnung von KI-generierten Inhalten nach dem C2PA-Standard beginnen werde. Auch sein Nachbar google hat sich der Initiative angeschlossen.

Die Authentifizierung von Online-Inhalten ist mit der Explosion der generativen KI zu einem Hauptproblem geworden, das es ermöglicht, auf einfache Anfrage alle Arten von Inhalten zu produzieren, darunter beispielsweise gefälschte Fotos von Personen oder gefälschte Audioaufnahmen zu Betrugszwecken.

Siehe auch  YouTube experimentiert mit einem ChatGPT-ähnlichen KI-Chatbot, der unter ausgewählten Videos angezeigt wird

5/5 - (349 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein