chatgpt – ein nützlicher KI-Assistent oder ein versteckter politischer Manipulator?
Wie ein Chatbot mit linken Überzeugungen Wahlprozesse in Dutzenden Ländern auf der ganzen Welt beeinflussen kann.
Aktuelle Forschung der University of East Anglia (UEA) enthüllt erhebliche systemische linke politische Voreingenommenheit in ChatGPT-KI-Antworten. Der Studie zufolge unterstützt die Plattform tendenziell die US-Demokratische Partei, die britische Labour Party und den brasilianischen Präsidenten Lula da Silva.
Ein Forscherteam aus Großbritannien und Brasilien nutzte eine neue Methode, um die politische Voreingenommenheit eines neuronalen Modells abzuschätzen. Diese Methode beinhaltete eine Art ChatGPT-Umfrage zu mehr als 60 ideologischen Themen, bei der sich die Forscher als verschiedene politische Organisationen und Einzelpersonen präsentierten.
Die Bedeutung dieser Forschung wird durch die rasante Zunahme der Nutzung von KI-Plattformen zur Suche nach Informationen und zur Erstellung neuer Inhalte unterstrichen. „Das Vorhandensein politischer Voreingenommenheit kann die Ansichten der Nutzer beeinflussen und potenzielle Konsequenzen für politische und Wahlprozesse haben“, sagte der Hauptautor der Studie, Dr. Fabio Motoki.
Um die Zuverlässigkeit der Schlussfolgerungen zu erhöhen, wurde jede Frage mindestens 100 Mal gestellt. Die eingegangenen Antworten wurden dann mit der „Bootstrap“-Methode verarbeitet, mit der die Originaldaten erneut abgetastet wurden. „Aufgrund der Zufälligkeit des Modells tendierten die ChatGPT-Antworten manchmal nach rechts, selbst wenn ein Demokrat simuliert wurde“, sagte der Co-Autor der Studie, Victor Rodriguez.
Die Autoren führten außerdem eine Reihe zusätzlicher Tests durch, um die Methodik zu validieren. Sie stellten ChatGPT-Fragen und simulierten radikale politische Positionen sowie berufliche Orientierungen.
„Wir hoffen, dass unsere Methode zur Regulierung dieser sich schnell entwickelnden Technologien beitragen wird“, betonte Dr. Waldemar Pinho Neto. Das im Rahmen des Projekts entwickelte Analysetool wird der Öffentlichkeit kostenlos zur Verfügung gestellt, was laut Dr. Motoki „die Aufsicht demokratisieren“ wird.
Die Studie identifizierte keine Gründe für die linksgerichtete politische Ausrichtung des Modells, sondern wies auf zwei mögliche Quellen hin: den Trainingsdatensatz und den Algorithmus selbst. Beide können bestimmte Vorurteile enthalten oder bestehende verstärken.
Die Studie wurde im Frühjahr 2023 mit der Version des GPT3.5-Sprachmodells durchgeführt veröffentlicht 17. August. Es erinnert uns einmal mehr daran, wie wichtig ein kritischer Umgang mit dem Einsatz neuer Technologien der künstlichen Intelligenz ist. Während ChatGPT einen beeindruckenden technischen Durchbruch darstellt, ist die Plattform wie jede andere nicht ohne Mängel.
Die festgestellte politische Voreingenommenheit unterstreicht die Notwendigkeit eines tieferen Verständnisses der Funktionsweise von KI, insbesondere wenn sie zur Erstellung von Informationsinhalten eingesetzt wird.
Gleichzeitig ist die von den Forschern vorgeschlagene Bias-Analyse-Methodik ein wertvolles Instrument zur Verbesserung der Transparenz und Rechenschaftspflicht solcher Systeme.
Der intelligente und ethische Einsatz von KI erfordert kontinuierliche Anstrengungen, um potenzielle Vorurteile zu erkennen und anzugehen. Nur so kann der größtmögliche Nutzen aus diesen Technologien gezogen werden, ohne der Gesellschaft zu schaden.