Zum ersten Mal kommuniziert OpenAI über Interferenzoperationen, die seine generative KI nutzen. OpenAI erklärt dieses Phänomen ausführlich in einem Blogbeitrag.
„In den letzten drei Monaten haben wir fünf Fälle entdeckt, in denen KI zur Manipulation der öffentlichen Meinung eingesetzt wurde“, sagte die Organisation, „und wir haben sie alle geschlossen.“
Laut der New York Times, chatgpt wurde verwendet, um gefälschte Kommentare und Artikel zu generieren. KI wurde auch verwendet, um gefälschte Konten und gefälschte Kontobiografien in sozialen Medien zu erstellen.
Erwecken Sie die Illusion, dass der Inhalt von großem Interesse ist
Diese Aktionen wurden von staatlichen Akteuren und privaten Unternehmen in Russland, China, Iran und Israel durchgeführt, sagte OpenAI. OpenAI hat zwei solcher Fälle in Russland bestätigt, einen in China, einen im Iran und einen in Israel.
Bei diesen Vorgängen wurde die OpenAI-Technologie genutzt, um Social-Media-Beiträge zu erstellen, Artikel zu übersetzen und zu bearbeiten, Schlagzeilen zu schreiben und Computerprogramme zu debuggen.
Alle diese Vorgänge wurden vom Herausgeber unterbrochen. „Diese Operationen standen im Zusammenhang mit der russischen Invasion in der Ukraine, dem Konflikt in Gaza, den Wahlen in Indien, politischen Entwicklungen in Europa und den USA sowie chinesischen Dissidenten“, sagte das Unternehmen.
Als Beispiel wird ein israelischer Operator angeführt, der einen kurzen Text über den Krieg in Gaza schrieb, ihn in den sozialen Medien veröffentlichte und die KI aufforderte, Kommentare und Antworten zu generieren. Daher wurde hier KI eingesetzt, um die Illusion zu erzeugen, dass die Inhalte von großem Interesse seien.
4 Haupttrends beim Einsatz generativer KI bei Einflussoperationen
OpenAI analysiert mehrere Trends „in der Art und Weise, wie Einflussoperationen in letzter Zeit Modelle der künstlichen Intelligenz genutzt haben“.
Content-Generierung
Die Autoren dieser Kampagnen nutzen generative KI-Dienste, „um Text (und manchmal auch Bilder) in größerer Zahl und mit weniger Sprachfehlern zu generieren, als es menschliche Bediener allein geschafft hätten“, sagt OpenAI.
Eine Mischung aus KI und klassischen Inhalten
„Alle diese Operationen nutzen KI bis zu einem gewissen Grad, aber nie ausschließlich“, sagt OpenAI. KI-generiertes Material ist nur eine Art von Inhalten, die neben traditionelleren Formaten wie handgeschriebenem Text oder aus dem Internet kopierten Memes verwendet werden.
Engagement simulieren
„Einige der Netzwerke, die wir gestört haben, nutzen unsere Dienste, um den Anschein von Engagement in sozialen Medien zu erwecken, indem sie beispielsweise Antworten auf ihre eigenen Beiträge generieren“, sagt der Herausgeber.
Produktivitätsgewinne
Schließlich nutzen einige Kommentatoren ChatGPT, „um zu versuchen, ihre Produktivität zu verbessern, indem sie beispielsweise Social-Media-Beiträge zusammenfassen oder Code debuggen“.
Tools zur Verfolgung der Inhaltsgenerierung in ChatGPT
„Wir haben diese Fälle mit unserer eigenen KI-Technologie verfolgt“, erklärt OpenAI, „und wir konnten alle diese Untersuchungen innerhalb weniger Tage abschließen.“
Das Unternehmen betonte außerdem, dass es Sicherheitstools in seine Produkte integriert habe, darunter ChatGPT.
„In vielen Fällen führten die Tools von OpenAI zu keinen Ergebnissen, wenn diese Akteure versuchten, sie für böswillige Zwecke zu nutzen“, sagte das Unternehmen.