Kurz nachdem Gerüchte über die bevorstehende Anklage des ehemaligen Präsidenten Donald Trump durchgesickert waren, tauchten im Internet Bilder auf, die angeblich seine Verhaftung zeigen sollten. Diese Bilder sahen aus wie Nachrichtenfotos, aber sie waren gefälscht. Sie sind erstellt durch ein generatives künstliches Intelligenzsystem.
Generative KI, in Form von Bildgeneratoren wie z DALL-E, Zwischendurch Und Stabile Diffusionund Textgeneratoren wie Barde, ChatGPT, Chinchilla Und Lama, ist in der Öffentlichkeit explodiert. Durch die Kombination cleverer maschineller Lernalgorithmen mit Milliarden von menschengenerierten Inhalten können diese Systeme alles Mögliche tun, von der Erstellung eines unheimlich realistischen Bildes aus einer Bildunterschrift über die Synthese einer Rede in der Stimme von Präsident Joe Biden bis hin zum Ersetzen der Ähnlichkeit einer Person durch eine andere in einem Video , oder schreiben Sie einen zusammenhängenden Kommentar mit 800 Wörtern aus einer Titelaufforderung.
Schon in diesen frühen Tagen ist die generative KI in der Lage, hochrealistische Inhalte zu erstellen. Meine Kollegin Sophie Nightingale und ich haben festgestellt, dass dies der Durchschnittsmensch ist nicht zuverlässig unterscheiden können ein Bild einer realen Person von einer KI-generierten Person. Auch wenn Audio und Video das Uncanny Valley noch nicht vollständig durchschritten haben – Bilder oder Modelle von Menschen, die beunruhigend sind, weil sie nah, aber nicht ganz realistisch sind –, werden sie es wahrscheinlich bald tun. Wenn dies geschieht, und das ist so gut wie garantiert, wird es immer einfacher, die Realität zu verzerren.
In dieser neuen Welt wird es ein Kinderspiel sein, ein Video zu erstellen, in dem ein CEO sagt, dass die Gewinne ihres Unternehmens um 20 % gesunken sind, was zu einem Verlust von Marktanteilen in Milliardenhöhe führen könnte, oder ein Video zu erstellen, in dem ein Weltmarktführer mit Militäraktionen droht. was eine geopolitische Krise auslösen könnte, oder das Abbild einer Person in ein sexuell eindeutiges Video einzufügen.
Die Technologie, um gefälschte Videos von echten Menschen zu erstellen, wird zunehmend verfügbar.
Fortschritte in der generativen KI werden bald dazu führen, dass sich gefälschte, aber visuell überzeugende Inhalte online ausbreiten werden, was zu einem noch chaotischeren Informationsökosystem führen wird. Eine sekundäre Konsequenz ist, dass Kritiker in der Lage sein werden, alles, von Polizeigewalt und Menschenrechtsverletzungen bis hin zu einem Weltführer, der streng geheime Dokumente verbrannt, leicht als Fälschung abzutun.
Während die Gesellschaft ins Fass starrt, was mit ziemlicher Sicherheit erst der Anfang dieser Fortschritte in der generativen KI ist, gibt es vernünftige und technologisch machbare Interventionen, die verwendet werden können, um diesen Missbrauch einzudämmen. Als Informatiker, der ist auf Bildforensik spezialisiertglaube ich, dass Wasserzeichen eine Schlüsselmethode sind.
Wasserzeichen
Es gibt eine lange Geschichte der Kennzeichnung von Dokumenten und andere Gegenstände, um ihre Echtheit nachzuweisen, den Besitz anzuzeigen und Fälschungen vorzunehmen. Heute ist Getty Images, ein riesiges Bildarchiv, fügt ein sichtbares Wasserzeichen hinzu auf alle digitalen Bilder in ihrem Katalog. Auf diese Weise können Kunden Bilder frei durchsuchen und gleichzeitig die Vermögenswerte von Getty schützen.
Nicht wahrnehmbare digitale Wasserzeichen sind ebenfalls vorhanden für die digitale Rechteverwaltung verwendet. Ein Wasserzeichen kann einem digitalen Bild hinzugefügt werden, indem beispielsweise jedes 10. Bildpixel so angepasst wird, dass seine Farbe (normalerweise eine Zahl im Bereich von 0 bis 255) einen geraden Wert hat. Da diese Pixelanpassung so gering ist, ist das Wasserzeichen nicht wahrnehmbar. Und da es unwahrscheinlich ist, dass dieses periodische Muster natürlich auftritt und leicht verifiziert werden kann, kann es verwendet werden, um die Herkunft eines Bildes zu verifizieren.
Selbst Bilder mit mittlerer Auflösung enthalten Millionen von Pixeln, was bedeutet, dass zusätzliche Informationen in das Wasserzeichen eingebettet werden können, darunter eine eindeutige Kennung, die die generierende Software codiert, und eine eindeutige Benutzer-ID. Dieselbe Art von nicht wahrnehmbarem Wasserzeichen kann auf Audio und Video angewendet werden.
Das ideale Wasserzeichen ist eines, das nicht wahrnehmbar ist und auch widerstandsfähig gegen einfache Manipulationen wie Zuschneiden, Größenänderung, Farbanpassung und Konvertierung digitaler Formate. Obwohl das Beispiel des Pixelfarbwasserzeichens nicht widerstandsfähig ist, weil die Farbwerte geändert werden können, wurden viele Wasserzeichenstrategien vorgeschlagen, die robust – wenn auch nicht undurchlässig – gegenüber Versuchen sind, sie zu entfernen.
Wasserzeichen und kostenlose KI-Bildgeneratoren
Diese Wasserzeichen können sein in die generativen KI-Systeme eingebrannt indem alle Trainingsdaten mit einem Wasserzeichen versehen werden, wonach der generierte Inhalt dasselbe Wasserzeichen enthält. Dieses eingebrannte Wasserzeichen ist attraktiv, weil es bedeutet, dass generative KI-Tools Open Source sein können – wie der Bildgenerator Stabile Diffusion ist – ohne Bedenken, dass ein Wasserzeichenverfahren aus der Software des Bildgenerators entfernt werden könnte. Stabile Diffusion hat eine Wasserzeichenfunktionaber da es Open Source ist, kann jeder diesen Teil des Codes einfach entfernen.
OpenAI ist Experimentieren mit einem System zum Wasserzeichen Die Kreationen von ChatGPT. Zeichen in einem Absatz können natürlich nicht wie ein Pixelwert angepasst werden, daher nimmt das Textwasserzeichen eine andere Form an.
Textbasierte generative KI basiert auf das nächstvernünftigste Wort zu produzieren in einem Satz. Beginnt man beispielsweise mit dem Satzfragment „ein KI-System kann …“, sagt ChatGPT voraus, dass das nächste Wort „lernen“, „vorhersagen“ oder „verstehen“ sein sollte. Jedem dieser Wörter ist eine Wahrscheinlichkeit zugeordnet, die der Wahrscheinlichkeit entspricht, mit der jedes Wort als nächstes im Satz erscheint. ChatGPT lernte diese Wahrscheinlichkeiten aus der großen Textmenge, mit der es trainiert wurde.
Erzeugter Text kann mit einem Wasserzeichen versehen werden, indem eine Teilmenge von Wörtern heimlich markiert wird und dann die Auswahl eines Wortes so beeinflusst wird, dass es ein synonym markiertes Wort ist. Anstelle von „verstehen“ kann beispielsweise das markierte Wort „begreifen“ verwendet werden. Durch periodisches Beeinflussen der Wortauswahl auf diese Weise wird ein Textkörper basierend auf einer bestimmten Verteilung von markierten Wörtern mit einem Wasserzeichen versehen. Dieser Ansatz funktioniert nicht für kurze Tweets, ist aber im Allgemeinen effektiv bei Texten mit 800 oder mehr Wörtern, abhängig von den spezifischen Wasserzeichendetails.
Generative KI-Systeme können und sollten meines Erachtens alle Inhalte mit einem Wasserzeichen versehen, was eine einfachere nachgelagerte Identifizierung und gegebenenfalls ein Eingreifen ermöglicht. Wenn die Industrie dies nicht freiwillig tut, könnte der Gesetzgeber eine Verordnung erlassen, um diese Regel durchzusetzen. Skrupellose Menschen werden diese Standards natürlich nicht einhalten. Aber wenn die großen Online-Gatekeeper – Apple und Google App Stores, Amazon, Google, Microsoft Cloud Services und GitHub – diese Regeln durchsetzen, indem sie nicht konforme Software verbieten, wird der Schaden erheblich reduziert.
Authentische Inhalte signieren
Um das Problem von der anderen Seite anzugehen, könnte ein ähnlicher Ansatz gewählt werden, um originale audiovisuelle Aufzeichnungen am Erfassungspunkt zu authentifizieren. Eine spezialisierte Kamera-App könnte den aufgezeichneten Inhalt während der Aufzeichnung kryptografisch signieren. Es gibt keine Möglichkeit, diese Signatur zu manipulieren, ohne Beweise für den Versuch zu hinterlassen. Die Signatur wird dann in einer zentralisierten Liste vertrauenswürdiger Signaturen gespeichert.
Obwohl dies nicht auf Text anwendbar ist, können audiovisuelle Inhalte dann als von Menschen erstellt verifiziert werden. Der Koalition für Herkunft und Authentifizierung von Inhalten (C2PA), eine gemeinsame Anstrengung zur Schaffung eines Standards für die Authentifizierung von Medien, hat kürzlich eine offene Spezifikation veröffentlicht, um diesen Ansatz zu unterstützen. Mit großen Institutionen wie Adobe, Microsoft, Intel, BBC und vielen anderen, die sich diesen Bemühungen anschließen, ist die C2PA gut positioniert, um eine effektive und weit verbreitete Authentifizierungstechnologie zu entwickeln.
Das kombinierte Signieren und Wasserzeichen von menschengenerierten und KI-generierten Inhalten wird nicht alle Formen des Missbrauchs verhindern, aber es wird ein gewisses Maß an Schutz bieten. Alle Sicherheitsvorkehrungen müssen kontinuierlich angepasst und verfeinert werden, da Gegner neue Wege finden, um die neuesten Technologien als Waffe einzusetzen.
Auf die gleiche Weise, wie die Gesellschaft gegen a gekämpft hat jahrzehntelanger Kampf gegen andere Cyber-Bedrohungen wie Spam, Malware und Phishing, sollten wir uns auf einen ebenso langwierigen Kampf vorbereiten, um uns gegen verschiedene Formen des Missbrauchs zu verteidigen, die mit generativer KI begangen werden.
Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung über an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden zu Die besten kostenlosen KI-Kunstgeneratoren Und Alles, was wir über ChatGPT von OpenAI wissen.
Hanni FaridProfessor für Informatik, Universität von Kalifornien, Berkeley
Dieser Artikel wird neu veröffentlicht von Die Unterhaltung unter einer Creative-Commons-Lizenz. Lies das originaler Artikel.