Propaganda, Desinformation: Wie chatgpt zur Manipulation der öffentlichen Meinung genutzt wird

Generative KI ist im Propaganda-Werkzeugkasten aufgetaucht, um der globalen öffentlichen Meinung Lügen aufzudrängen. OpenAI hat mehrere Desinformationskampagnen aus China, Iran und Russland identifiziert, die ChatGPT nutzen.

ChatGPT weiß, wie man viele positive … und negative Dinge bewirkt. Der OpenAI-Bot dient somit als Dreh- und Angelpunkt für mehrere Desinformations- und Propagandakampagnen, die von Unternehmen im Iran, Russland und China inszeniert werden. Die Technologie wird verwendet, um Beiträge in sozialen Netzwerken zu erstellen, Artikel zu übersetzen, irreführende Titel zu schreiben oder Programme zu entwickeln, die den Versand dieser Inhalte automatisieren.

ChatGPT, eine Waffe im Dienste der Propaganda

OpenAI hat detailliert beschrieben, wie diese Influencer-Kampagnen ChatGPT nutzen. Beispielsweise nutzt die Operation Doppelgänger aus Russland den Bot, um Anti-Ukraine-Kommentare auf Französisch, Deutsch und Polnisch zu generieren; Außerdem war er als Übersetzer und Redakteur für Artikel in Englisch und Französisch tätig, die die Invasion in der Ukraine unterstützten. ChatGPT wurde auch verwendet, um ein Tool zum automatischen Posten auf Telegram zu entwickeln.

Ein weiteres Beispiel ist die Spamouflage-Kampagne, die China zugeschrieben wird: OpenAI-Technologie wurde zum Debuggen von Code, zur Analyse von Veröffentlichungen in sozialen Netzwerken und zur Online-Überwachung eingesetzt. ChatGPT wurde auch verwendet, um regierungsnahe Beiträge zu erstellen. Auf iranischer Seite wurden diese generativen KI-Tools verwendet, um Artikel und Schlagzeilen zugunsten des Regimes, gegen Israel und die Vereinigten Staaten zu erstellen und zu übersetzen.

Siehe auch  Eine KI, um Oberstufenschülern zu helfen, ChatGPT als Lehrer?

Die Befürchtungen der Behörden vor einer unkontrollierbaren KI, die die öffentliche Meinung beeinflussen könnte, indem sie soziale Netzwerke mit Desinformationsbotschaften überschwemmt, waren daher keine Illusion.

Allerdings muss man einen kühlen Kopf bewahren. Ben Nimmo, der leitende Ermittler von OpenAI, sagt, dass diese Einflussoperationen – die derzeit andauern – Schwierigkeiten haben, ihr Ziel zu erreichen. Politische Kommentare, die im Rahmen dieser Kampagnen gepostet wurden, hätten von normalen Menschen nur wenige Likes und Reaktionen erhalten, versichert er weiter.

Die Art dieser von ChatGPT erstellten Veröffentlichungen wird im Allgemeinen als ein Mittelweg angesehen: Die Grammatik ist bedauerlich, bestimmte Elemente, die für ChatGPT spezifisch sind, wurden nicht entfernt (in einem Beitrag wurde sogar die Nachricht des Bots integriert, in der erklärt wird, dass es sich bei ChatGPT um ein KI-Sprachmodell handelt). da, um „zu helfen und das gewünschte Feedback zu geben“).

Trotz allem wird sich ChatGPT weiterentwickeln und verbessern. Es wird eine Zeit kommen, in der vom Bot generierte Nachrichten nicht mehr so ​​leicht erkannt werden können. OpenAI schlägt mehrere Lösungen vor: Schutzmaßnahmen, die verhindern, dass der Bot Antworten generiert, gemeinsame Arbeit mit anderen KI-Plattformen … Wird das alles trotz allem ausreichen?

JForum.fr mit www.01net.com
Quelle: OpenAI
Mickaël BazogeMickaël Bazoge
Image Newsletter Image Don

Die JForum-Redaktion entfernt automatisch alle antisemitischen, rassistischen, diffamierenden oder beleidigenden Kommentare, die gegen die jüdische Moral verstoßen.

5/5 - (253 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein