Letztes Jahr, Monate bevor der Wahlzyklus 2024 in vollem Gange ist, sorgten einige erschreckende Vorschauen auf die Macht der künstlichen Intelligenz, im Namen politischer Absichten falsche Bilder zu erzeugen, auf Social-Media-Plattformen und Nachrichtenagenturen für großes Aufsehen.

Nachdem Präsident Joe Biden im vergangenen April seine Pläne bekannt gegeben hatte, für eine zweite Amtszeit zu kandidieren, veröffentlichte das Republikanische Nationalkomitee eine zusammengebastelte Zukunftsperspektive in einer Anzeige, die eine Reihe dystopischer Ergebnisse, darunter ein Karussell von KI-generierten Bildern des Chaos, auf den Fersen Bidens darstellte gewinnende Wiederwahl.

Und einen Monat davor, Eine Reihe von KI-erstellten Deep-Fake-Fotos zeigten den ehemaligen Präsidenten Donald Trump beim Widerstand gegen die Festnahme, versuchte wegzulaufen und wurde schließlich von einer Gruppe New Yorker Polizisten zu Boden gezwungen und weggezerrt. Wie die Bilder, die das RNC in seiner Parodie-Werbung verwendete, waren alle Bilder völlig falsch und wurden von KI-gestützten digitalen Tools generiert.

Während sowohl der RNC als auch die Person, die die gefälschten Trump-Bilder erstellt hat, offen zugegeben haben, dass ihre Arbeit gefälscht wurde, gibt es viele Befürchtungen, dass KI-Plattformen, die unglaublich gut darin sind, falsche Texte, Fotos, Videoaufnahmen und Audioclips zu erzeugen, in schlimmsten Fällen ausgenutzt werden versuchen, bei den bevorstehenden Wahlen in den USA und auf der ganzen Welt den Ausschlag zu geben.

Diese Woche kündigte OpenAI, das Unternehmen hinter dem KI-Chatbot chatgpt und dem auf künstlicher Intelligenz basierenden Text-zu-Bild-Generator DALL-E, seine Pläne an, dabei zu helfen, seine Produkte – die zu den beliebtesten und am weitesten verbreiteten KI-Tools der Welt zählen – zu verhindern werden für Desinformationskampagnen genutzt.

Siehe auch  Der ChatGPT-Website-Verkehr sinkt den dritten Monat in Folge – Forbes.ua

„Der Schutz der Integrität von Wahlen erfordert die Zusammenarbeit aus allen Bereichen des demokratischen Prozesses, und wir möchten sicherstellen, dass unsere Technologie nicht auf eine Weise eingesetzt wird, die diesen Prozess untergraben könnte.“ OpenAI schrieb Anfang dieser Woche in einem Blogbeitrag.

Zu diesem Zweck sagt OpenAI, dass neue und fortlaufende Leitplanken, die in seine Produkte integriert sind, darauf abzielen, die Art und Weise zu verbieten oder einzuschränken, wie sie zur Generierung von Fehlinformationen genutzt werden können. Zu diesen Parametern gehören nach Angaben des Unternehmens:

  • Die Verwendung der Tools zum Erstellen von Anwendungen für politische Kampagnen und Lobbying ist nicht gestattet.
  • Es ist Programmierern nicht gestattet, mithilfe der OpenAI-Technologie Chatbots zu erstellen, die vorgeben, echte Personen (z. B. Kandidaten) oder Institutionen (z. B. lokale Behörden) zu sein.
  • Der Einsatz der OpenAI-Technologie in Anwendungen, die Menschen von der Teilnahme an demokratischen Prozessen abhalten, ist nicht zulässig. Zum Beispiel die falsche Darstellung von Abstimmungsprozessen und -qualifikationen (z. B. wann, wo oder wer wahlberechtigt ist) oder die von der Stimmabgabe abhält (z. B. der Anspruch auf eine Stimmabgabe ist bedeutungslos).
  • In DALL-E integrierte Screening-Protokolle, die Anfragen zur Bildgenerierung realer Personen, einschließlich politischer Kandidaten, ablehnen.

OpenAI kündigte außerdem an, dass es in Kürze einen neuen digitalen „Wasserzeichen“-Prozess für generierte Bilder einführen wird, die von seinen Tools erstellt werden. Durch den dauerhaften Aufdruck können Bilder überall dort, wo sie erscheinen, als KI-Kreationen identifiziert werden.

OpenAI ist nur eines von Dutzenden aufstrebenden Innovationsunternehmen, die KI-gesteuerte Tools entwickelt haben oder entwickeln, die die Erstellung falscher Bilder, Videos und/oder Audiodaten für jeden mit einem Computer, Tablet oder Smartphone zugänglich gemacht haben.

Siehe auch  Präsident Biden unterzeichnet Exekutivverordnung zur Abtreibungsbehandlung

Und das ist ein Punkt, den Darrell West, Senior Fellow am Center for Technology Innovation der Brookings Institution, in seinem Beitrag anführte TechTank-Podcast letzter November.

„Durch Eingabeaufforderungen und Vorlagen kann im Grunde jeder gefälschte Videos, gefälschte Pressemitteilungen, gefälschte Nachrichten oder andere Arten falscher Erzählungen erstellen“, sagte West. „Ich prognostiziere einen Tsunami an Desinformation im Wahlkampf 2024 durch gefälschte Videos und Tonbänder.“

In einem Der Brookings-Bericht wurde letzten Mai veröffentlichtWest stellte fest, dass ein erwartet knappes Rennen bei den US-Präsidentschaftswahlen 2024 Möglichkeiten für Desinformationskampagnen gegen die kleine Gruppe von Wechselwählern eröffnet, die den Wettbewerb wahrscheinlich entscheiden werden.

„Generative KI kann Botschaften entwickeln, die sich an diejenigen richten, die über Einwanderung, die Wirtschaft, Abtreibungspolitik, kritische Rassentheorie, Transgender-Themen oder den Ukraine-Krieg verärgert sind“, schrieb West. „Es kann auch Botschaften erstellen, die soziale und politische Unzufriedenheit ausnutzen, und KI als wichtiges Instrument zur Einbindung und Überzeugung nutzen.“

West äußerte auch seine Bedenken, dass ein wesentlicher Mangel an Regulierung und Aufsicht in Bezug auf KI-generierte Inhalte die Verwendung von KI-generierten Fehlinformationen oder Desinformationen im bevorstehenden Wahlzyklus nur noch verschärfen wird.

„Was das kommende Jahr besonders besorgniserregend macht, ist das Fehlen von Leitplanken oder Offenlegungspflichten, die die Wähler vor Fake News, Desinformation oder falschen Narrativen schützen“, schrieb West.

Und obwohl das RNC und der Ersteller der gefälschten Trump-Verhaftungsfotos die Verwendung von KI-Tools eingestanden haben, gibt es laut West kaum Grund zu der Annahme, dass die Praxis zur Norm werden wird.

„Es ist wahrscheinlicher, dass Menschen neue Content-Tools nutzen, ohne dass sie öffentlich bekannt gegeben werden, und es wird für Wähler unmöglich sein, echte von gefälschten Appellen zu unterscheiden“, schrieb West.

Siehe auch  OpenAI suspendiert Entwickler wegen ChatGPT-Bot, der sich als Präsidentschaftskandidat ausgab

Anzeige