• Google Share Btn

Openai: China, Russland Und Andere Organisationen Nutzen Ki-Technologie, Um Zu Versuchen, Die Globale Öffentliche Meinung Zu Manipulieren

chatgpt-Entwickler OpenAI 31. MaiäußernIn den letzten drei Monaten hat OpenAI fünf verdeckte Einflussoperationen aufgehalten, die versuchten, die künstliche Intelligenz (KI) von OpenAI zu nutzen, um die öffentliche Meinung auf der ganzen Welt zu manipulieren und die Geopolitik zu beeinflussen.

AFP berichtete, dass OpenAI in einem Blogbeitrag erklärt habe, dass die kompromittierten Aktivitäten von Russland, China, dem Iran und einem privaten Unternehmen mit Sitz in Israel ausgingen.

Bedrohungsakteure versuchen, die leistungsstarken Sprachmodelle von OpenAI für Aufgaben wie das Generieren von Kommentaren, Artikeln, Social-Media-Profilen und das Debuggen von Bots und Website-Code zu nutzen.

Sam Altman, CEO von OpenAI, sagte, dass die Maßnahmen „scheinbar das Engagement des Publikums nicht wesentlich steigern oder das Publikum für unseren Dienst erweitern.“

Unternehmen wie OpenAI stehen unter Beobachtung, da befürchtet wird, dass Anwendungen wie ChatGPT oder das Bildgenerierungstool Dall-E innerhalb von Sekunden irreführende Inhalte produzieren könnten.

Angesichts der bevorstehenden großen Wahlen auf der ganzen Welt ist es besonders besorgniserregend, dass Länder wie Russland, China und der Iran verdeckte Social-Media-Operationen nutzen, um die Spannungen vor dem Wahltag zu eskalieren.

Bei einer solchen Operation mit dem Namen „Bad Grammar“ handelte es sich um eine bisher nicht gemeldete russische Operation gegen die Ukraine, Moldawien, die baltischen Staaten und die Vereinigten Staaten. Diese Operation nutzt OpenAI-Modelle und -Tools, um kurze politische Kommentare auf Russisch und Englisch auf Telegram zu verfassen.

Darüber hinaus nutzt die russische Operation „Doppelgänger“ KI, um auf Plattformen wie Social Media X Kommentare in Englisch, Französisch, Deutsch, Italienisch, Polnisch und anderen Sprachen zu verfassen.

Siehe auch  Stanford führt nächste Woche eine ChatGPT-ähnliche Funktion für Ärzte ein

OpenAI stoppte auch Chinas Einflussoperation „Spamouflage“, bei der OpenAI-Modelle missbraucht wurden, um Social-Media-Aktivitäten zu untersuchen, Beiträge in mehreren Sprachen zu schreiben und Website-Code zu debuggen.

(Übersetzer: Chen Yuting; Quelle des ersten Bildes:pixabay

Weiterführende Literatur:

5/5 - (155 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein