Obersten Zeile

OpenAI identifizierte und störte fünf Einflussoperationen Beteiligt waren Nutzer aus Russland, China, dem Iran und Israel, die die KI-Technologie des Unternehmens, zu der auch chatgpt gehört, nutzten, um Inhalte zu generieren, die auf eine irreführende Beeinflussung der öffentlichen Meinung und des politischen Diskurses abzielten.

Eckdaten

Die Verantwortlichen hinter diesen Machenschaften nutzten künstliche Intelligenz (KI), um Inhalte zu generieren, die über verschiedene Plattformen geteilt werden, darunter auch Code für Bots. Außerdem wollten sie durch unaufrichtige Antworten auf Social-Media-Posts den falschen Anschein von Engagement erwecken, erklärte das Unternehmen.

Zwei Operationen gingen von Russland aus – eine davon betraf die etablierten Doppelgänger Bei der einen Kampagne wurde KI zur Generierung falscher Inhalte und Kommentare eingesetzt, und bei der anderen handelte es sich um eine „bisher nicht gemeldete“ Operation, die das Unternehmen „Bad Grammar“ nennt. Laut OpenAI wurden dabei seine Modelle zum Coden eines Bots verwendet, der kurze politische Kommentare auf Telegram postete.

OpenAI verknüpfte eine Kampagne mit einer israelischen Wahlkampffirma namens Stoischdas mithilfe von KI Beiträge über Gaza auf Instagram, Facebook und X (früher bekannt als Twitter) generierte und sich an Zielgruppen in Kanada, den USA und Israel richtete.

Die Operationen generierten auch Inhalte über die Invasion Russlands in der Ukraine, die indischen Wahlen, die westliche Politik und Kritik an der chinesischen Regierung, sagte OpenAI in seiner allerersten Bericht zum Thema.

Kontra

OpenAI kam zu dem Schluss, dass KI wenig dazu beiträgt, die Reichweite dieser Einflussoperationen zu erhöhen. Unter Berufung auf die Studie der Brookings Institutions „Ausbruchsskala“, Laut OpenAI wurde bei keiner der identifizierten Operationen eine höhere Punktzahl als zwei von fünf erreicht, was bedeutet, dass die generierten Inhalte nie in authentischen Benutzergemeinschaften ankamen.

Wichtiger Hintergrund

Einflussoperationen auf Social-Media-Plattformen haben die Aufmerksamkeit der Tech-Welt seit 2016 auf sich gezogen, als von Russland gesponserte Organisationen identifiziert wurden, die versuchten, vor der Präsidentschaftswahl zugunsten des damaligen Kandidaten Donald Trump Zwietracht zu säen. Seitdem versuchen Technologieunternehmen, ähnliche Aktivitäten zu überwachen und fassen ihre Bemühungen oft in regelmäßigen Berichten zusammen. Letzten Monat fand Microsoft Beweise dafür, dass vor der Wahl 2024 eine neue, von Russland unterstützte Wahlbeeinflussungskampagne im Gange war.

Tangente

Meta veröffentlichte außerdem eine Bericht diese Woche wurde die Einflussoperation mit Stoic in Verbindung gebracht und behauptet, dass Hunderte von gefälschten Facebook- und Instagram-Konten im Zusammenhang mit Stoic entfernt wurden. Der Meta-Bericht identifizierte auch KI als Quelle einiger der von diesen Konten geposteten Inhalte.

5/5 - (403 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein