Der Entwickler des neuronalen Netzwerks chatgpt, OpenAI, kündigte die Unterdrückung „geheimer Operationen“ zur Beeinflussung der öffentlichen Meinung und politischer Prozesse an. Darüber gemeldet in einer Pressemitteilung vom 30. Mai auf der Website des Unternehmens. Ihr zufolge wurden „Einflussoperationen“ mit OpenAI-KI-Tools von Strukturen aus Russland, China, Iran und Israel durchgeführt.
In dem Bericht heißt es, dass Nutzer aus diesen Ländern in den letzten drei Monaten Technologien der künstlichen Intelligenz genutzt hätten, um große Mengen an Bildern und Texten zu bestimmten Themen zu erstellen. Zu den behandelten Themen gehören Militäreinsätze in der Ukraine, der palästinensisch-israelische Konflikt, Wahlen in Indien sowie die politische Lage in Europa und den Vereinigten Staaten.
„Angreifer nutzen unsere Plattform, um ihre Inhalte zu verbessern und ihre Leistung zu verbessern.“ es sagt in einem Bericht.
Laut OpenAI wurden bei der „betrügerischen Aktivität“ KI-Tools für eine Vielzahl von Aufgaben eingesetzt. Dazu gehören die Erstellung kurzer Kommentare und langer Artikel in verschiedenen Sprachen, die Übersetzung und das Korrekturlesen von Texten, die Generierung von Spitznamen und biografischen Informationen für Konten in sozialen Netzwerken, die Suche und Korrektur von Fehlern in Programmcodes sowie die Untersuchung der Benutzeraktivität in sozialen Netzwerken.
„Russische Einflussoperationen“
Laut OpenAI wurde die Kampagne von Russland aus von zwei Netzwerken überwacht. Einer von ihnen ist Doppelgänger („Double“). Zuvor behaupteten westliche Medien, dass dieser Name einer Kampagne gegeben wurde, bei der unter dem Deckmantel internationaler Nachrichten eine prorussische Agenda in sozialen Netzwerken verbreitet wurde.
OpenAI schreibt in seinem Bericht, dass Teilnehmer von „Double“ KI-Sprachmodelle verwendeten, um Kommentare auf Englisch, Französisch, Deutsch, Italienisch und Polnisch zu schreiben, woraufhin die Beiträge im sozialen Netzwerk X und auf der 9GAG-Plattform veröffentlicht wurden. Die Kampagne übersetzte und redigierte auch Artikel in Englisch und Französisch, die dann auf Websites mit Bezug zu Doppelgängern veröffentlicht wurden. Darüber hinaus nutzten Vertreter von „Double“ KI, um Nachrichtentexte in Veröffentlichungen für Facebook (im Besitz von Meta*) zu verarbeiten.
Eine weitere angeblich von Russland durchgeführte „verdeckte Operation“ sei erstmals im Internet aufgedeckt worden, heißt es in einem Bericht von OpenAI. Es heißt Schlechte Grammatik. Mithilfe von KI-Modellen erstellten seine Teilnehmer überwiegend kurze politische Kommentare auf Russisch und Englisch auf Telegram, die wie am Fließband unter Veröffentlichungen und als Reaktion auf Nachrichten anderer Nutzer gepostet wurden. Veröffentlichungen in englischer Sprache wurden überwiegend im Auftrag von Amerikanern mit unterschiedlichen politischen Ansichten erstellt; russischsprachige Kommentare waren weniger personalisiert. Bad Grammar hat angeblich auch den Code für die automatische Veröffentlichung solcher Veröffentlichungen mithilfe von ChatGPT debuggt.
Der Inhalt dieser „Operation“ richtet sich an Zuschauer aus der Ukraine, Moldawien, den baltischen Ländern und den USA. Themen der mithilfe künstlicher Intelligenz generierten Kommentare waren vor allem die Kämpfe in der Ukraine, die politische Lage in Moldawien und den baltischen Ländern sowie die US-Politik. Der Ukraine-Konflikt dominierte den russischsprachigen Kommentar von Bad Grammar, während sich der englischsprachige Kommentar eher auf Einwanderung, Wirtschaftsthemen und aktuelle Nachrichten konzentrierte – all dies wurde oft verwendet, um für die Unterstützung der USA für die Ukraine zu argumentieren.
Die Autoren des Berichts stellen fest, dass nach dem Terroranschlag auf das Crocus-Rathaus in Moskau einige der Bad Grammar-Kommentare auf Telegram an ein neues Publikum weitergeleitet wurden – Gruppen, die sich auf Tadschikistan konzentrierten. KI-generierte Kommentare riefen zur Einheit zwischen Tadschiken und Russen und zur Achtung der russischen Gesetze auf.
Sacharowa reagierte auf Vorwürfe, sie versuche, den russischen Einfluss in Deutschland zu erhöhen
Kampagnen anderer Länder
Der Bericht beschreibt auch „verdeckte Operationen“, von denen OpenAI behauptet, sie hätten ihren Ursprung in China und dem Iran. Im Fall der Volksrepublik China handelt es sich um das Netzwerk „Spamouflage“, dessen Vertreter insbesondere die Nutzeraktivitäten in sozialen Netzwerken untersuchten, Texte in Chinesisch, Englisch, Japanisch und Koreanisch erstellten, die dann im sozialen Netzwerk X veröffentlicht wurden und auf den Plattformen Medium und Blogspot. Darüber hinaus beschäftigten sich die Spamouflage-Teilnehmer mit der Suche und Korrektur von Fehlern in Programmcodes zur Verwaltung von Datenbanken und Websites.
Der Name der iranischen „Operation“ wird im OpenAI-Bericht als „International Virtual Media Union“ aufgeführt. Das Unternehmen behauptet, dass seine Vertreter KI-Modelle verwendet hätten, um lange Artikel, Schlagzeilen und Programmcodefragmente zu erstellen und zu übersetzen.
OpenAI beschreibt eine „verdeckte Operation“, die angeblich von Israel aus durchgeführt wurde, und schreibt, dass das Unternehmen dahinter STOIC sei, das KI-Tools nutzt, um Inhalte über den Konflikt im Gazastreifen und über die Wahlen in Indien zu erstellen. Aufgrund des geringen Engagements innerhalb der verschiedenen Kampagnen wurde diese „Operation“ „Zero Zenon“ („Zero Zeno“, benannt nach dem antiken griechischen Gründer der Schule des Stoizismus, Zeno von Citium) genannt.
Ergebnisse der Untersuchung
Laut OpenAI konnten Gruppen mit den KI-Tools des Unternehmens ihre Zielgruppengröße oder Reichweite nicht vergrößern.
„Anhand einer Skala, die die Auswirkungen von 1 (am niedrigsten) bis 6 (am höchsten) einordnet, erhielt keine der fünf in unseren Fallstudien enthaltenen Operationen eine höhere Bewertung als 2“, heißt es in dem Bericht.
Insbesondere generierten Teilnehmer einiger Netzwerke mithilfe von OpenAI-KI-Modellen Antworten auf ihre eigenen Veröffentlichungen, wodurch der Anschein von Aktivität in sozialen Netzwerken erweckt wurde. „Das unterscheidet sich von der Anziehung echter Aktivitäten, die keines der hier beschriebenen Netzwerke in nennenswertem Maße erreichen konnte“, schlussfolgerte das Unternehmen.
Der ChatGPT-Entwickler stellte fest, dass der von den Teilnehmern an den „Operationen“ generierte Text Sprachfehler enthielt.
OpenAI sagte, es vereitelt „verdeckte Einflussoperationen“ durch seine Sicherheitssysteme, einschließlich Tools für künstliche Intelligenz.
„Wir haben zum Beispiel immer wieder Fälle beobachtet, in denen es unseren Modellen nicht gelang, die von den Künstlern gewünschten Texte oder Bilder zu generieren“, heißt es in dem Bericht.
*Die Aktivitäten von Meta zur Verbreitung von Facebook und Instagram in Russland gelten als extremistisch und sind verboten