Laut einer neuen Studie mangelt es chatgpt, einem großen Chatbot, der auf einem Large Language Model (LLM) basiert, angeblich an Objektivität, wenn es um politische Themen geht.
Informatiker und Informationswissenschaftler aus dem Vereinigten Königreich und Brasilien geben an, „überzeugende Beweise“ dafür gefunden zu haben, dass ChatGPT eine erhebliche politische Ausrichtung auf die linke Seite des politischen Spektrums darstellt. Die Analysten Fabio Motoki, Valdemar Piño und Victor Rodriguez äußerten ihre Meinung in einer am 17. August vom Magazin Public Choice veröffentlichten Studie.
Die Forscher argumentierten, dass von LLMs wie ChatGPT erstellte Texte möglicherweise sachliche Fehler und Vorurteile enthalten, die die Leser irreführen, und bestehende Probleme politischer Voreingenommenheit erweitern könnten, die in traditionellen Medien auftreten. Daher haben die Ergebnisse wichtige Implikationen für politische Entscheidungsträger und Interessenvertreter in Medien, Politik und Wissenschaft, stellen die Autoren der Studie fest und fügen hinzu:
„Das Vorhandensein politischer Voreingenommenheit in seinen Antworten kann die gleichen negativen politischen und Wahlfolgen haben wie Voreingenommenheit in traditionellen Medien und sozialen Netzwerken.“
Die Studie basiert auf einem empirischen Ansatz und der Untersuchung einer Reihe von Fragebögen, die von ChatGPT bereitgestellt werden. Die Erfahrungsstrategie beginnt damit, dass ChatGPT gebeten wird, Fragen zum politischen Kompass zu beantworten, die die politische Ausrichtung des Befragten widerspiegeln. Der Ansatz basiert auch auf Tests, bei denen sich ChatGPT als durchschnittlicher Demokrat oder Republikaner ausgibt.
Testergebnisse zeigen, dass der standardmäßige ChatGPT-Algorithmus auf Antworten der US-Demokraten ausgerichtet ist. Die Forscher argumentierten auch, dass die politische Voreingenommenheit von ChatGPT nicht auf den US-Kontext beschränkt sei. Sie schrieben:
„Der Algorithmus ist voreingenommen gegenüber den Demokraten in den USA, Lula in Brasilien und der Labour Party im Vereinigten Königreich. Zusammengenommen deuten unsere Kerntests und Zuverlässigkeitstests stark darauf hin, dass es sich bei diesem Phänomen tatsächlich um eine Art Voreingenommenheit und nicht um ein mechanisches Ergebnis handelt.“
Analysten betonten, dass die genaue Quelle der politischen Voreingenommenheit von ChatGPT schwer zu ermitteln sei. Die Forscher versuchten sogar, ChatGPT in eine Art Entwicklermodus zu zwingen, um auf jegliches Wissen über die verzerrten Daten zuzugreifen, aber das LLM „bestätigte kategorisch“, dass ChatGPT und OpenAI unvoreingenommen sind.
OpenAI reagierte nicht sofort auf die Bitte von Cointelegraph um einen Kommentar.
Verwandt: OpenAI sagt, dass ChatGPT-4 die Zeit für die Moderation von Inhalten von Monaten auf Stunden verkürzt
Die Autoren der Studie vermuten, dass es mindestens zwei potenzielle Quellen für Verzerrungen geben könnte, darunter die Trainingsdaten und den Algorithmus selbst.
„Das wahrscheinlichste Szenario ist, dass beide Quellen der Verzerrung die Ergebnisse von ChatGPT in gewissem Maße beeinflussen, und die Trennung dieser beiden Komponenten (Trainingsdaten und Algorithmus) ist zwar nicht trivial, aber sicherlich ein heißes Thema für zukünftige Forschung“, so der Forscher kamen zu dem Schluss.
Politische Voreingenommenheit ist nicht das einzige Problem bei KI-Tools wie ChatGPT oder anderen. Da ChatGPT weiterhin im Mainstream verankert ist, haben Menschen auf der ganzen Welt viele damit verbundene Risiken festgestellt, darunter Datenschutzprobleme und schwierige Aufklärung. Einige KI-Tools, wie zum Beispiel KI-Inhaltsgeneratoren, geben sogar Anlass zu Bedenken hinsichtlich des Identitätsprüfungsprozesses an Kryptowährungsbörsen.
AI Eye: apple entwickelt Taschen-KI, Fake-Music-Deal, hypnotisiert GPT-4