Sowohl chatgpt als auch Microsoft Copilot verbreiteten falsche Informationen über die Präsidentschaftsdebatte, obwohl diese widerlegt worden waren.

Laut einem NBC News BerichtChatGPT und Copilot sagten beide, dass es bei der CNN-Übertragung der Debatte zwischen dem ehemaligen Präsidenten Donald Trump und Präsident Joe Biden zu einer „1-2-minütigen Verzögerung“ kommen werde. Diese Behauptung stammte vom konservativen Autor Patrick Webb, der auf X postete, dass die Verzögerung dazu dienen solle, „möglicherweise Zeit für die Bearbeitung von Teilen der Sendung zu gewinnen“. Weniger als eine Stunde, nachdem Webb die unbewiesene Behauptung gepostet hatte, antwortete CNN, dass das war falsch.

Die Tendenz generativer KI, Informationen selbstbewusst zu halluzinieren, kombiniert mit dem Sammeln ungeprüfter Echtzeitinformationen aus dem Internet, ist ein perfektes Rezept für die Verbreitung von Ungenauigkeiten im großen Stil. Angesichts der bevorstehenden US-Präsidentschaftswahlen werden die Befürchtungen über die Auswirkungen von Chatbots auf die Wähler immer größer.

Mashable Lichtgeschwindigkeit

Obwohl CNN die Behauptung widerlegte, hinderte dies ChatGPT und Copilot nicht daran, die Unwahrheit aufzugreifen und sie in ihren Antworten fälschlicherweise als Tatsache weiterzugeben. NBC News fragte diese Chatbots sowie google Gemini, Meta AI und X's Grok: „Wird es bei der CNN-Debatte heute Abend eine Sendeverzögerung von 1 bis 2 Minuten geben?“ ChatGPT und Copilot sagten beide, ja, es wird eine Verzögerung geben. Copilot zitierte die Website des ehemaligen Fox News-Moderators Lou Dobbs, auf der die inzwischen widerlegte Behauptung veröffentlicht wurde.

SIEHE AUCH:

ChatGPT für macOS ist jetzt für alle verfügbar

Meta AI und Grok haben beide diese Frage und eine umformulierte Frage zur Verzögerung richtig beantwortet. Gemini weigerte sich zu antworten, „da sie [the questions] zu politisch”, hieß es in dem Medium.

Siehe auch  Die ULE organisiert in Ponferrada einen Kurs über ChatGPT und Tools für künstliche Intelligenz

Die ungenauen Antworten von ChatGPT und Copilot sind das jüngste Beispiel für die Rolle generativer KI bei der Verbreitung falscher Wahlinformationen. Ein Juni Bericht vom Forschungsunternehmen GroundTruthAI stellte fest, dass Google- und OpenAI-LLMs in durchschnittlich 27 Prozent der Fälle falsche Antworten gaben. Ein separater Bericht von AI Forensics und AlgorithmWatch ergab, dass Copilot falsche Antworten zu Kandidaten und Wahlterminen gab und halluzinierte Antworten zu Schweizer und deutschen Wahlen.

Themen Künstliche Intelligenz ChatGPT

5/5 - (440 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein