[ad_1]

Chatbots liefern Fake News aus russischer Propaganda und Falschmeldungen, schreibt Axios zitierte einen Bericht von NewsGuard, der Fehlinformationen in den Nachrichten aufspürt.

Zur Durchführung der Studie nutzten die Forscher von NewsGuard Abfragen im Zusammenhang mit Texten von John Mark Dugan, einem ehemaligen amerikanischen Offizier, der in Russland Asyl beantragte. Von Daten Für die New York Times erstellt und verbreitet er Fake News und arbeitet für die russische Propaganda.

Die NewsGuard-Studie nutzte 57 Abfragen, um die zehn besten Chatbots zu testen, und in 32 % der Fälle verbreiteten die Chatbots gefälschte russische Nachrichten, indem sie auf gefälschte lokale Websites verlinkten, die als zuverlässige Quellen aufgeführt waren. Zu diesen Nachrichten gehörten Berichte über angeblich entdeckte Abhörmaßnahmen in der Residenz des ehemaligen US-Präsidenten Donald Trump und Nachrichten über eine nicht existierende ukrainische „Trollfabrik“, die geschaffen wurde, um sich in die amerikanischen Wahlen einzumischen.

Die Studie umfasste Plattformen wie chatgpt-4 von OpenAI, Smart Assistant von You.com, Grok, Inflection, Mistral, Copilot von Microsoft, Meta AI, Claude von Anthropic, google Gemini und Perplexity.

„Dieser Bericht zeigt wirklich, warum die Branche Nachrichten und Informationen priorisieren muss“, sagte Stephen Brill, Mitbegründer von NewsGuard. Er empfahl, den Antworten, die die meisten „dieser Chatbots auf nachrichtenbezogene Fragen geben“, nicht zu vertrauen.

Senator Mark Warner sagte gegenüber Axios, er sei besorgt über den wachsenden Fluss an Fehlinformationen im Zusammenhang mit den diesjährigen Präsidentschaftswahlen. „Dies ist eine echte Bedrohung in einer Zeit, in der die Amerikaner, ehrlich gesagt, mehr denn je bereit sind, verrückte Verschwörungstheorien zu glauben“, sagte Warner.

Ende Mai berichtete das Unternehmen OpenAI, das ChatGPT entwickelt hat, dass trotz der Tatsache, dass Russland eine groß angelegte internationale Desinformationskampagne durchführt, Experten noch nicht den aktiven Einsatz neuer technologischer Fähigkeiten darin identifiziert haben – künstliche Intelligenz. Gleichzeitig räumte das Unternehmen ein, dass es bereits vereinzelt Fälle des Einsatzes russischer Propaganda gegeben habe.

Siehe auch  European ChatGPT kommt … und es könnte unsere Wirtschaft ankurbeln

OpenAI stellte fest, dass sie fünf geheime Einflusskampagnen vereitelt haben, die von Russland, China, Iran und Israel organisiert wurden. Sie versuchten, „die öffentliche Meinung zu manipulieren oder politische Ergebnisse zu beeinflussen, ohne die wahre Identität oder Absichten der Akteure preiszugeben“. Die Kampagnen nutzten OpenAI-Modelle, um Texte und Bilder zu erstellen, die auf Telegram, X und Instagram gepostet wurden.

Der Hersteller von ChatGPT sagte, er habe Konten entfernt, die mit zwei russischen Unternehmen namens Bad Grammer und Doppelganger in Verbindung stehen. Tatsächlich gab es an ihren Inhalten nichts Neues: Sie erstellten hauptsächlich Inhalte über den Krieg in der Ukraine und stellten ihn, die Vereinigten Staaten, die NATO und die Europäische Union in einem negativen Licht dar.

Darüber hinaus wurden die chinesische Spamouflage-Kampagne, das iranische Netzwerk International Union of Virtual Media und die israelische Operation Zero Zeno blockiert.

[ad_2]

5/5 - (478 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein