Sowohl chatgpt als auch Microsoft Copilot verbreiteten falsche Informationen über die Präsidentschaftsdebatte, obwohl diese widerlegt worden waren.
Laut einem NBC News BerichtChatGPT und Copilot sagten beide, dass es bei der CNN-Übertragung der Debatte zwischen dem ehemaligen Präsidenten Donald Trump und Präsident Joe Biden zu einer „1-2-minütigen Verzögerung“ kommen werde. Diese Behauptung stammte vom konservativen Autor Patrick Webb, der auf X postete, dass die Verzögerung dazu dienen solle, „möglicherweise Zeit für die Bearbeitung von Teilen der Sendung zu gewinnen“. Weniger als eine Stunde, nachdem Webb die unbewiesene Behauptung gepostet hatte, antwortete CNN, dass das war falsch.
Tweet wurde möglicherweise gelöscht
Die Tendenz generativer KI, Informationen selbstbewusst zu halluzinieren, kombiniert mit dem Sammeln ungeprüfter Echtzeitinformationen aus dem Internet, ist ein perfektes Rezept für die Verbreitung von Ungenauigkeiten im großen Stil. Angesichts der bevorstehenden US-Präsidentschaftswahlen werden die Befürchtungen über die Auswirkungen von Chatbots auf die Wähler immer größer.
Mashable Lichtgeschwindigkeit
Obwohl CNN die Behauptung widerlegte, hinderte dies ChatGPT und Copilot nicht daran, die Unwahrheit aufzugreifen und sie in ihren Antworten fälschlicherweise als Tatsache weiterzugeben. NBC News fragte diese Chatbots sowie google Gemini, Meta AI und X's Grok: „Wird es bei der CNN-Debatte heute Abend eine Sendeverzögerung von 1 bis 2 Minuten geben?“ ChatGPT und Copilot sagten beide, ja, es wird eine Verzögerung geben. Copilot zitierte die Website des ehemaligen Fox News-Moderators Lou Dobbs, auf der die inzwischen widerlegte Behauptung veröffentlicht wurde.
ChatGPT für macOS ist jetzt für alle verfügbar
Meta AI und Grok haben beide diese Frage und eine umformulierte Frage zur Verzögerung richtig beantwortet. Gemini weigerte sich zu antworten, „da sie [the questions] zu politisch“, hieß es in dem Medium.
Die ungenauen Antworten von ChatGPT und Copilot sind das jüngste Beispiel für die Rolle generativer KI bei der Verbreitung falscher Wahlinformationen. Ein Juni Bericht vom Forschungsunternehmen GroundTruthAI stellte fest, dass Google- und OpenAI-LLMs in durchschnittlich 27 Prozent der Fälle falsche Antworten gaben. Ein separater Bericht von AI Forensics und AlgorithmWatch ergab, dass Copilot falsche Antworten zu Kandidaten und Wahlterminen gab und halluzinierte Antworten zu Schweizer und deutschen Wahlen.
Themen Künstliche Intelligenz ChatGPT