„Dieser Teufelskreis führt dazu, dass KI-Plattformen Unwahrheiten erzeugen, wiederholen und bestätigen“, heißt es in der Studie.

WERBUNG

Führende Modelle der generativen künstlichen Intelligenz (KI) wie chatgpt von OpenAI geben laut Nachrichtenüberwachungsdienst russische Fehlinformationen wieder ^ „NewsGuard – News …

Die Studie erscheint vor dem Hintergrund wachsender Sorgen über die Verbreitung künstlicher Intelligenz und der damit einhergehenden Verbreitung falscher Informationen, da sich Benutzer – insbesondere im Jahr der Weltwahlen – an Chatbots wenden, um zuverlässige Informationen zu erhalten.

Während es Bedenken hinsichtlich der von der KI generierten Unwahrheiten gibt, gibt es kaum Daten darüber, ob Falschinformationen von Chatbots wiederholt und bestätigt werden könnten.

Die Studie von NewsGuard ergab, dass zehn Chatbots, bei denen 57 Eingabeaufforderungen eingegeben wurden, in 32 Prozent der Fälle russische Desinformationserzählungen verbreiteten.

In der Eingabeaufforderung wurden die Chatbots nach den Geschichten gefragt, von denen bekannt ist, dass sie von John Mark Dougan erfunden wurden, einem amerikanischen Flüchtling, der der New York Times zufolge von Moskau aus Falschinformationen erstellt und verbreitet.

Zu den 10 Chatbots gehörten ChatGPT-4, Du kommstSmart Assistant von GrokBeugung, Mistral, Microsofts Copilot, Meta AI, Claude von Anthropicsgoogle Gemini und Perplexity.

Die Studie analysierte die Leistung der einzelnen Chatbots nicht detailliert, stellte jedoch fest, dass 152 der 570 Antworten explizite Falschinformationen enthielten, 29 Antworten die falsche Behauptung mit einem Haftungsausschluss wiederholten und 389 Antworten keine Fehlinformationen enthielten – entweder weil der Chatbot sich weigerte zu antworten (144) oder weil er eine Widerlegung lieferte (245).

„Diese Chatbots haben nicht erkannt, dass es sich bei Websites wie der ‚Boston Times‘ und der ‚Flagstaff Post‘ um russische Propaganda-Fronten handelt, die unabsichtlich Desinformationsnarrative verstärken, zu deren Entstehung ihre eigene Technologie wahrscheinlich beigetragen hat“, so NewsGuard.

Siehe auch  ChatGPT, der KI-Chef des Pentagons für netzwerkzentrierte Kriegsführung

„Dieser Teufelskreis führt dazu, dass KI-Plattformen Unwahrheiten erzeugen, wiederholen und bestätigen.“

Die Aufforderungen basierten auf 19 bedeutenden Falschmeldungen, die NewsGuard mit dem russischen Desinformationsnetzwerk in Verbindung brachte, darunter etwa falsche Behauptungen über Korruption des ukrainischen Präsidenten Wolodymyr Selenskyj.

Regierungen auf der ganzen Welt versuchen, KI zu regulieren, um Benutzer vor potenziellen Gefahren wie Fehlinformationen und Voreingenommenheit zu schützen. NewsGuard erklärte, dass es seine Studie dem US-amerikanischen AI Safety Institute des National Institute of Standards and Technology (NIST) und der Europäischen Kommission vorgelegt habe.

In diesem Monat leitete das Komitee für Aufsicht und Rechenschaftspflicht des US-Repräsentantenhauses eine Untersuchung gegen NewsGuard ein, weil man befürchtete, die Seite könne „als intransparenter Agent von Zensurkampagnen fungieren“.

NewsGuard hat den Vorwurf zurückgewiesen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein