Wie eine aktuelle Studie ergab, verbreiten Modelle künstlicher Intelligenz (KI) wie chatgpt von OpenAI unbeabsichtigt Desinformationen über Russland.

Die vom Nachrichtenüberwachungsdienst NewsGuard durchgeführte Studie gibt Anlass zur Sorge über die unbeabsichtigte Verbreitung russischer Desinformationen durch prominente KI-Modelle.

Dabei lag der Fokus auf beliebten Chatbots, darunter ChatGPT-4 von OpenAI, und es wurden beunruhigende Trends bei der Verbreitung falscher Narrative aufgedeckt. Im Rahmen der Untersuchung von NewsGuard wurden 10 verschiedene Chatbots mit 57 Eingabeaufforderungen getestet, um ihre Reaktionen auf bekannte russische Desinformationsnarrative zu untersuchen.

Die Aufforderungen drehten sich um Geschichten rund um John Mark Dougan, einen amerikanischen Flüchtling, der angeblich an der Verbreitung von Fehlinformationen aus Moskau beteiligt war, sowie gemeldet bis zum New York Times.

Den Ergebnissen zufolge wiederholten diese Chatbots, die von Nutzern weltweit immer häufiger für Informationen genutzt werden, in etwa 32 % der Fälle russische Desinformationsnarrative. Die Studie kategorisierte die Antworten in explizite Desinformation, wiederholte falsche Behauptungen mit Haftungsausschluss oder Antworten, die sich entweder weigerten, sich zu engagieren oder eine Entlarvung lieferten.

„Dieser Teufelskreis führt dazu, dass KI-Plattformen Unwahrheiten erzeugen, wiederholen und bestätigen“, heißt es in der Studie. Damit wird ein besorgniserregendes Muster aufgezeigt, bei dem KI unbeabsichtigt Fehlinformationen verstärkt, zu deren Entstehung sie beiträgt.

Spezifische falsche Erzählungen und Antworten

NewsGuard identifizierte 19 bedeutende Falschmeldungen, die mit dem russischen Desinformationsnetzwerk in Verbindung stehen, darunter Behauptungen über Korruption des ukrainischen Präsidenten Wolodymyr Selenskyj.

Diese Erzählungen dienten als Anregung zum Testen der Chatbots und offenbarten ein unterschiedliches Maß an Anfälligkeit für Fehlinformationen.

Siehe auch  AI/ChatGPT ist bereit, die Fähigkeit von Marken, mit Verbrauchern in Kontakt zu treten, mit Raketentreibstoff zu verbessern

Zu den getesteten Chatbots gehörten ChatGPT-4, Meta AI, Microsofts Copilot und andere. Die Studie analysierte zwar nicht die Leistung der einzelnen Chatbots, stellte jedoch Fälle fest, in denen Fehlinformationen entweder unkritisch wiederholt oder angemessen gekontert wurden.

Regulierungsbemühungen und Reaktion der Industrie

Die Folgen der Verbreitung von Fehlinformationen durch KI haben Regierungen weltweit dazu veranlasst, Regulierungsmaßnahmen in Betracht zu ziehen. Bedenken hinsichtlich der potenziellen Schäden durch KI, einschließlich Voreingenommenheit und Fehlinformationen, haben zu Initiativen wie denen von NewsGuard geführt, das seine Ergebnisse Regulierungsbehörden wie dem US AI Safety Institute und der Europäischen Kommission vorgelegt hat.

Als Reaktion auf die Ergebnissegibt es zunehmende Forderungen nach Transparenz und Verantwortlichkeit bei der Entwicklung und Bereitstellung von KI.

In diesem Monat leitete der Ausschuss für Aufsicht und Rechenschaftspflicht des US-Repräsentantenhauses eine Untersuchung gegen NewsGuard selbst ein, die allgemeinere Bedenken hinsichtlich der Rolle der KI bei der Verbreitung von Informationen und potenzieller Zensur widerspiegelt, wie berichtet wird von EuroNews.

In einer separaten, aber damit zusammenhängenden Entwicklung hat OpenAI kürzlich entschiedene Maßnahmen gegen Online-Desinformationskampagnen ergriffen, bei denen seine KI-Technologie zum Einsatz kam. Einem ausführlichen Bericht des Unternehmens zufolge hat OpenAI fünf versteckte Einflusskampagnen identifiziert und gestoppt, die von staatlichen Akteuren und privaten Unternehmen aus Russland, China, dem Iran und Israel orchestriert wurden.

Der Bericht stellt einen wichtigen Meilenstein dar, da er öffentlich darlegt, wie wichtige KI-Technologien in geopolitischen Kontexten für betrügerische Zwecke missbraucht werden.

Zu den bemerkenswerten Kampagnen, die hier beschrieben werden, gehören Russlands Doppelganger und Chinas Spamouflage, die beide seit mehreren Jahren KI-Tools nutzen, um ihre strategischen Ziele voranzutreiben. Auch der Iran und Israel nutzen KI, um ihre geopolitischen Agenden über Online-Kanäle voranzutreiben.

Siehe auch  Die Lösung: Eine realistische Version von ChatGPT

NEWSLETTER

Das Blueprint Daily

Bleiben Sie mit The Blueprint über Neuigkeiten aus den Bereichen Ingenieurwesen, Technologie, Raumfahrt und Wissenschaft auf dem Laufenden.

5/5 - (171 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein