Laut einer aktuellen Studie von NewsGuard ist die Zuverlässigkeit von Chatbots als Informationsquellen zweifelhaft.

Falsche Information

Eine aktuelle Studie von NewsGuard verrät das chatgpt et Barde reichlich verstreuen „Fake News“. Nach Angaben von The EchosBei zwei im März und August 2023 durchgeführten Tests ging es darum, Texte aus fehlerhaften Informationen zu generieren. Die Ergebnisse deuten darauf hin, dass KIs über einen Zeitraum von fünf Monaten kaum oder gar keine Verbesserung bei Fehlinformationen zeigten.

Ein Marsch, ChatGPT-4 erstellte Texte, die in 100 % der Fälle falsche Informationen enthielten Barde 76 % erreicht. Im August gingen die Zahlen leicht zurück, auf 98 % für ChatGPT-4 und 80 % für Bard. Die für die Tests verwendeten Informationen seien zu keinem Zeitpunkt verifiziert worden, berichtet die Website. 20minuten.fr.

Barde, umsichtiger, überzeugender ChatGPT

Was noch besorgniserregender ist, ist, dass diese IA kann Texte generieren, die in den Medien glaubwürdig sein könnten. Darauf weisen NewsGuard-Experten hin ChatGPT-4 et Barde produziert“Artikel oder Blogbeiträge, die zu bestimmten Themen so überzeugend sind, dass man erwarten würde, sie auf großen Desinformationsplattformen zu lesen.”

Gut, dass Barde stellt gelegentlich seine Quellen zur Verfügung, ChatGPT mehr auftauchen“überzeugend und schlau„Keiner der beiden Chatbots unterscheidet vertrauenswürdige von zweifelhaften Quellen und lässt so die Tür für verschwörerische Seiten offen. In Russland haben staatliche Medien diese Chatbots als legitime Quellen angeführt und behauptet, dass die Vereinigten Staaten eine „Putsch in der Ukraine“.

> Lesen Sie auch: ChatGPT: Alles über dieses Tool der künstlichen Intelligenz

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein