zunehmend populär, künstliche Intelligenz (IA)-Generative sollten mit Vorsicht und Vorsicht verwendet werden. Laut einer aktuellen Studie von NewsGuard, den beiden bekanntesten Chatbots, chatgpt/“>ChatGPT und Bard verbreiten viel davon Fake-News.

Zwei Tests wurden durchgeführt, im März und dann im August 2023, berichten Die Echos. Sie bestanden darin, Texte zu schreibenInformationen fehlerhaft. Ergebnis: In fünf Monaten sind die Fortschritte der KI in Bezug auf Desinformation schwach oder gar nicht vorhanden.

Fehlerhafte, aber überzeugende Texte

Im März produzierte ChatGPT-4 Inhalte, die in 100 % der Fälle Fake News enthielten, und Bard in 76 % der Fälle. Im August waren die Fortschritte gering: Bei der KI waren die Zahlen auf 98 % gestiegenOpenAI und 80 % für das von google/“>Google. Die für den Test gemachten Angaben wurden zu keinem Zeitpunkt überprüft.

Noch besorgniserregender ist, dass diese KIs in der Lage sind, Texte zu produzieren, die tatsächlich ausgestrahlt werden könnten Medien. „Bei vielen Aufforderungen generierten ChatGPT-4 und Bard schnell Artikel oder Blogbeiträge, die so überzeugend waren, dass man erwarten würde, sie auf großen Desinformationsseiten zu lesen“, sagen NewsGuard-Experten.

Bereits als Quellen verwendet

Bard ist vorsichtig und stellt manchmal seine Quellen zur Verfügung, aber Chat-GPT ist „überzeugender und hinterhältiger“. Jedenfalls unterscheidet keine der beiden KIs zwischen zuverlässigen Quellen und anderen, zweifelhafteren Quellen, etwa Verschwörungsseiten. Einige nutzen die beiden Chatbots jedoch bereits als legitime Quelle. In Russland wurden sie von staatlichen Medien mit der Aussage zitiert, dass die USA „einen Putsch in der Ukraine“ unterstützt hätten.

Dennoch können Benutzer daran arbeiten, diese Tools zu verbessern, indem sie Kommentare schreiben. Letzteres hätte es ermöglicht, „die sachliche Präzision von ChatGPT-4“ zu erhöhen, behauptete OpenAI im April. Bard hält dagegen, indem er auf seiner Seite darauf hinweist, dass es möglich sei, mit dem Chatbot „ungenaue oder unangemessene Antworten“ zu erhalten.

Siehe auch  Fallen Sie nicht auf diese 5 verbreiteten Mythen über ChatGPT herein

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein