Russland, China, Iran und Israel haben angeblich die generative KI chatgpt genutzt, um gefälschte Kommentare und Nachrichtenartikel zu generieren, behauptet der Programmherausgeber OpenAI.

Die amerikanische Firma OpenAI In seinem offiziellen Blog wurden mindestens zwei Fälle massiver Veruntreuung von Informationen aus Russland festgestellt. Manipulationen, die China mit seiner Software durchgeführt hat. Dem Iran wurden weitere ähnliche Verfehlungen sowie eine von Israel inszenierte Desinformationswelle zugeschrieben. Allen diesen Propagandaaktionen ist eines gemeinsam: der Einsatz der OpenAI-Technologie. Es wird verwendet, um gefälschte Social-Media-Beiträge zu generieren, fiktive Nachrichtenartikel und irreführende Schlagzeilen in eine andere Sprache zu übersetzen und zu bearbeiten. Die Software wird auch zur Erstellung von Computerprogrammen verwendet, um den Versand dieser gefälschten Inhalte zu automatisieren.

Einflussnahme durch KI während Wahlperioden

Das Hauptziel dieser Desinformationsoperationen ist die politische Destabilisierung von Nationen, die an einem Wahlprozess beteiligt sind. Längerfristig besteht das Ziel jedoch darin, einen wirtschaftlichen Vorteil zu erzielen, erklärt Francois Deruty, Direktor für Cybersicherheitsoperationen bei Es ist sicher. Dieses in Frankreich gegründete Unternehmen hat die Aufgabe, die Fähigkeiten von zu entwickeln Europäischer digitaler Schutzauch wenn es darum geht, Desinformationsversuchen ausländischer Mächte entgegenzuwirken: „ Staatliche Versuche zur politischen Destabilisierung im Internet nutzen zunehmend generative KI. Doch neben der Erzielung unmittelbarer politischer Vorteile verfolgt diese Einflussnahme auch wirtschaftliche Ziele. Beispielsweise ist die Präsidentschaftswahl in Moldawien Ende des Jahres aufgrund des Konflikts, den sie in der Ukraine ausgelöst hat, für Russland äußerst wichtig. „, er erklärt.

« Der Kreml will unbedingt Odessa erobern und die gesamte umliegende Halbinsel erobern. Sollte sich Moldawien bei den nächsten Präsidentschaftswahlen auf die pro-russische Seite stellen, hätte Moskau vollständigen Zugang zum Meer und könnte einen Großteil der Weizen- und Getreideexporte kontrollieren. Und der Online-Einfluss, den Russland in Moldawien ausübt, kann sehr konkrete Auswirkungen auf das tägliche Leben jedes europäischen Bürgers haben. »

Siehe auch  CSIRO-Wissenschaftler sind der Meinung, dass ChatGPT nicht den Anweisungen des Arztes entspricht

OpenAI analysierte diese Einflusskampagnen unter Ausnutzung von ChatGPT

Zum Beispiel die von Russland ins Leben gerufene Operation „Doppelgänger“, ein Begriff, der in bestimmten europäischen Volksmärchen den bösen Doppelgänger einer Person bezeichnet. Der Kreml nutzte das Programm OpenAI, um anti-ukrainische Kommentare zu generieren und falsche Artikel zu veröffentlichen, die seine Aggression gegen die Ukraine rechtfertigten, auf Französisch, Deutsch und Polnisch. ChatGPT wurde auch verwendet, um ein IT-Tool zu entwickeln, um diese Propaganda automatisch über verschlüsselte Telegram-Nachrichten zu verbreiten.

Ein weiteres Beispiel ist die Kampagne Spamouflage von 2023, dessen Ursprung China zugeschrieben wird, das dann Veröffentlichungen in sozialen Netzwerken analysierte, um einen regierungsfreundlichen Gegendiskurs zu schaffen. Auf iranischer Seite gilt die gleiche Beobachtung! Generative KI wurde verwendet, um regierungsfreundliche Artikel und Schlagzeilen gegen Israel und die Vereinigten Staaten zu senden oder zu übersetzen. Der jüdische Staat nutzte ChatGPT auch im Rahmen einer Desinformationskampagne namens Zero Zeno, die darin bestand, fiktive Personen zu generieren. Diese Pseudo-Internetnutzer waren für die Veröffentlichung islamfeindlicher Nachrichten auf Online-Konten in den USA, Kanada, aber auch in Israel verantwortlich.

OpenAI versucht jedoch, den Umfang dieser Einflussnahmen zu minimieren und erklärt in seinem Bericht, dass Internetnutzer sehr leicht erkennen, dass es sich um Desinformationskampagnen handelt.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein