chatgpt politisch voreingenommen“ />

Laut einer neuen Studie weist der Chatbot für künstliche Intelligenz von OpenAI, ChatGPT, eine erhebliche und systemische Tendenz zur Linken auf.

Die in der Zeitschrift „Public Choice“ veröffentlichten Ergebnisse zeigen, dass die Antworten von ChatGPT die Demokraten in den USA, die Labour Party im Vereinigten Königreich und den Präsidenten Lula da Silva von der Arbeiterpartei in Brasilien begünstigen.

Bedenken hinsichtlich einer inhärenten politischen Voreingenommenheit in ChatGPT wurden bereits geäußert, aber dies ist die erste groß angelegte Studie, die eine konsistente, evidenzbasierte Analyse verwendet.

„Angesichts der zunehmenden Nutzung von KI-gestützten Systemen durch die Öffentlichkeit, um Fakten herauszufinden und neue Inhalte zu erstellen, ist es wichtig, dass die Ausgabe beliebter Plattformen wie ChatGPT so unparteiisch wie möglich ist“, sagte Hauptautor Fabio Motoki von der Norwich Business School an der University of East Anglia im Vereinigten Königreich.

„Das Vorhandensein politischer Voreingenommenheit kann die Ansichten der Nutzer beeinflussen und potenzielle Auswirkungen auf politische und Wahlprozesse haben. „Unsere Ergebnisse verstärken die Sorge, dass KI-Systeme die bestehenden Herausforderungen des Internets und der sozialen Medien nachbilden oder sogar verstärken könnten“, sagte Motoki.

Die Forscher entwickelten eine innovative neue Methode, um die politische Neutralität von ChatGPT zu testen.

Die Plattform wurde gebeten, sich als Personen aus dem gesamten politischen Spektrum auszugeben und gleichzeitig eine Reihe von mehr als 60 ideologischen Fragen zu beantworten.

Die Antworten wurden dann mit den Standardantworten der Plattform auf denselben Fragensatz verglichen – so konnten die Forscher messen, inwieweit die Antworten von ChatGPT mit einer bestimmten politischen Haltung verbunden waren.

Siehe auch  Das Potenzial von ChatGPT nutzen: PR und Krisenkommunikation mit KI revolutionieren

Um Schwierigkeiten zu überwinden, die durch die inhärente Zufälligkeit „großer Sprachmodelle“, die KI-Plattformen wie ChatGPT unterstützen, entstehen, wurde jede Frage 100 Mal gestellt und die unterschiedlichen Antworten gesammelt.

Diese Mehrfachantworten wurden dann einem „Bootstrap“ mit 1000 Wiederholungen unterzogen (einer Methode zur erneuten Abtastung der Originaldaten), um die Zuverlässigkeit der aus dem generierten Text gezogenen Schlussfolgerungen weiter zu erhöhen.

„Aufgrund der Zufälligkeit des Modells tendierten ChatGPT-Antworten manchmal zur rechten Seite des politischen Spektrums, selbst wenn man sich als Demokrat ausgab“, sagte Co-Autor Victor Rodrigues.

Um sicherzustellen, dass die Methode so streng wie möglich ist, wurden eine Reihe weiterer Tests durchgeführt. In einem „Dosis-Wirkungs-Test“ wurde ChatGPT gebeten, sich als radikale politische Positionen auszugeben.

In einem „Placebo-Test“ wurden politisch neutrale Fragen gestellt. Und in einem „Profession-Politik-Alignment-Test“ wurde es gebeten, sich als verschiedene Arten von Fachleuten auszugeben.

Zusätzlich zur politischen Voreingenommenheit kann das Tool verwendet werden, um andere Arten von Vorurteilen in den Antworten von ChatGPT zu messen.

Während das Forschungsprojekt nicht darauf abzielte, die Gründe für die politische Voreingenommenheit zu ermitteln, deuteten die Ergebnisse doch auf zwei mögliche Quellen hin.

Der erste war der Trainingsdatensatz – der möglicherweise Vorurteile enthält oder von menschlichen Entwicklern hinzugefügt wurde, die durch die „Bereinigungs“-Prozedur der Entwickler nicht entfernt werden konnten.

Die zweite mögliche Quelle war der Algorithmus selbst, der möglicherweise bestehende Verzerrungen in den Trainingsdaten verstärkt.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein