[ad_1]
Im Rahmen der von Forschern der University of East Anglia durchgeführten Studie wurde ChatGPT gebeten, auf eine Umfrage zu politischen Überzeugungen zu antworten, wie es die KI für Anhänger liberaler Parteien in den Vereinigten Staaten, im Vereinigten Königreich und in Brasilien annahm Beantworte es. Anschließend baten die Forscher ChatGPT, dieselben Fragen ohne Aufforderung zu beantworten, und verglichen die beiden Antwortsätze. Die Ergebnisse zeigten eine signifikante und systematische politische Voreingenommenheit gegenüber den Demokraten in den Vereinigten Staaten, Lula in Brasilien und der Labour Party im Vereinigten Königreich, schrieben die Forscher und beriefen sich dabei auf Luiz Incio Lula da Silva, den linken Präsidenten Brasiliens.
Der Hauptautor, Dr. Fabio Motoki, von Norwich Business School von der University of East Anglia, sagte: „Da die Öffentlichkeit zunehmend KI-gestützte Systeme nutzt, um Fakten aufzudecken und neue Inhalte zu erstellen, ist es wichtig, dass die Antworten (Ausgaben) von beliebten Plattformen wie ChatGPT so unvoreingenommen wie möglich sind.“
Das Vorhandensein politischer Voreingenommenheit kann die Meinungen der Nutzer beeinflussen und potenzielle Auswirkungen auf politische Prozesse und Wahlprozesse haben.
Unsere Ergebnisse verstärken die Sorge, dass KI-Systeme die bestehenden Herausforderungen des Internets und der sozialen Medien nachahmen oder sogar verstärken könnten.
Die Forscher entwickelten eine Methode, um die politische Neutralität von ChatGPT zu testen. Die Plattform wurde gebeten, sich als Personen mit unterschiedlichem politischem Hintergrund auszugeben und gleichzeitig eine Reihe von mehr als 60 ideologischen Fragen zu beantworten. Die Antworten wurden dann mit den Standardantworten der Plattform auf denselben Fragensatz verglichen, sodass die Forscher abschätzen konnten, inwieweit die Antworten von ChatGPT mit einer bestimmten politischen Haltung verbunden waren.
Um die Schwierigkeiten zu überwinden, die durch die inhärente Zufälligkeit der *großen Sprachmodelle*, die KI-Plattformen wie ChatGPT antreiben, entstehen, wurde jede Frage 100*mal gestellt und die unterschiedlichen Antworten gesammelt. Diese Mehrfachantworten wurden dann einem Bootstrap von 1000 Wiederholungen unterzogen (eine Methode zur erneuten Abtastung der Originaldaten), um die Zuverlässigkeit der aus dem generierten Text gezogenen Schlussfolgerungen weiter zu erhöhen.
„Wir haben dieses Verfahren entwickelt, weil die Durchführung einer einzigen Testrunde nicht ausreicht“, sagte Co-Autor Victor Rodrigues. Um zu veranschaulichen, warum mehrere Tests erforderlich waren, erklärte er, dass die ChatGPT-Antworten aufgrund der Zufälligkeit des Modells manchmal eher rechts vom politischen Spektrum tendierten, selbst wenn man sich als Demokrat ausgab.
Um sicherzustellen, dass die Methode so streng wie möglich ist, wurden zahlreiche weitere Tests durchgeführt. In einem Dosis-Wirkungs-Test wurde ChatGPT gebeten, radikale politische Positionen nachzuahmen. In einem Placebotest wurden ihm politisch neutrale Fragen gestellt. Und in einem Berufs-Politik-Alignment-Test wurde er gebeten, sich als verschiedene Arten von Fachleuten auszugeben.
Wir hoffen, dass unsere Methode die Prüfung und Regulierung dieser sich schnell entwickelnden Technologien erleichtern wird“, sagte Co-Autor Dr. Pinho Neto. Indem wir die Erkennung und Korrektur von LLM-Voreingenommenheiten ermöglichen, wollen wir Transparenz, Rechenschaftspflicht und öffentliches Vertrauen in diese Technologie fördern“, fügte er hinzu.
Das einzigartige neue Analysetool, das durch das Projekt geschaffen wurde, würde der Öffentlichkeit kostenlos zur Verfügung stehen und relativ einfach zu verwenden sein, was die Überwachung demokratisieren würde, sagte Dr. Motoki. Neben der Prüfung auf politische Vorurteile kann das Tool auch zur Messung anderer Arten von Vorurteilen in ChatGPT-Antworten verwendet werden.
Mögliche Quellen
Obwohl das Forschungsprojekt nicht darauf abzielte, die Gründe für politische Voreingenommenheit zu ermitteln, deuteten die Ergebnisse auf zwei mögliche Quellen hin.
Der erste war der Trainingsdatensatz – der möglicherweise Vorurteile enthält oder von menschlichen Entwicklern hinzugefügt wurde, die durch die „Bereinigungs“-Prozedur der Entwickler nicht entfernt werden konnten. Die zweite potenzielle Quelle war der Algorithmus selbst, der bestehende Verzerrungen in den Trainingsdaten verstärken kann.
Der Artikel ergänzt eine wachsende Zahl von Untersuchungen zu Chatbots, die zeigen, dass Bots trotz der Tatsache, dass ihre Entwickler versuchen, potenzielle Vorurteile zu kontrollieren, von Annahmen, Überzeugungen und Stereotypen durchdrungen sind, die in Unmengen von Daten aus dem offenen Internet zu finden sind, in dem sie entstanden sind.
Die Einsätze werden immer höher. Während in den USA die Präsidentschaftswahl 2024 bevorsteht, sind Chatbots für einige Menschen zu einem Teil des Alltags geworden. Sie verwenden ChatGPT und andere Bots wie Googles Bard, um Dokumente zusammenzufassen, Fragen zu beantworten und ihnen beim beruflichen und persönlichen Schreiben zu helfen. google begann, seine Chatbot-Technologie zu nutzen, um Fragen direkt in Suchergebnissen zu beantworten, während politische Kampagnen Bots nutzten, um Spenden-E-Mails zu erstellen und politische Anzeigen zu generieren.
ChatGPT werde den Benutzern mitteilen, dass es keine politischen Meinungen oder Überzeugungen habe, aber in Wirklichkeit zeige es einige Vorurteile, sagte Fabio Motoki, Dozent an der University of East Anglia Norwich, England, und einer der Autoren des Artikels. Es besteht die Gefahr, das Vertrauen der Öffentlichkeit zu untergraben oder vielleicht sogar die Wahlergebnisse zu beeinflussen.
Generative KI-Reaktionsverzerrungen geben Anlass zur Sorge
OpenAI sagte, es weise seine menschlichen Trainer ausdrücklich an, keine bestimmte politische Gruppe zu bevorzugen. Alle Vorurteile, die in ChatGPT-Antworten auftauchen, seien Fehler und keine Funktionen, erklärte das Unternehmen in einem Blogbeitrag im Februar.
Obwohl Chatbots eine aufregende Technologie sind, sind sie nicht ohne Mängel, gaben die KI-Führungskräfte von Google in einem Blogbeitrag im März zu, in dem sie die umfassende Einführung von Bard ankündigten.
Seit Jahren tobt eine Debatte darüber, welchen Einfluss soziale Medien und das Internet auf politische Entscheidungen haben. Das Internet ist zu einem unverzichtbaren Instrument für die Verbreitung politischer Botschaften geworden und ermöglicht es den Menschen, sich über Kandidaten zu informieren. Gleichzeitig können jedoch auch Algorithmen in sozialen Medien, die die kontroversesten Botschaften hervorrufen, zur Polarisierung beitragen. Regierungen nutzen soziale Medien auch, um in anderen Ländern Unmut zu säen, indem sie radikale Stimmen stärken und Propaganda verbreiten.
Die neue Welle generativer KI-fähiger Chatbots wie ChatGPT von OpenAI, Bard von Google und Bing von Microsoft basieren auf Big Language Models, Algorithmen, die Milliarden von Sätzen aus dem offenen Internet extrahiert haben und auf eine Reihe offener Gäste reagieren können, indem sie ihnen das geben Fähigkeit, Berufsprüfungen zu bestehen, Gedichte zu verfassen und komplexe politische Themen darzustellen. Aber weil sie auf so vielen Daten basieren, können die Unternehmen, die sie bauen, nicht alles kontrollieren, was in den Bots passiert. Das Internet spiegelt die Vorurteile der Menschen wider, daher übernehmen auch Bots diese Vorurteile.
Und du ?
Was halten Sie von den Verfahren, mit denen Forscher die politische Neutralität von ChatGPT überprüfen? Sind Sie von ihren Erkenntnissen überrascht? Was halten Sie von der politischen Voreingenommenheit von ChatGPT? Glauben Sie, dass es Absicht oder Zufall war? Wie könnte sich Ihrer Meinung nach die politische Voreingenommenheit von ChatGPT auf Benutzer auswirken, die damit interagieren? Welche Risiken und Chancen gibt es? Was halten Sie von der Verwendung des Bard-Bots durch Google in den Suchergebnissen? Finden Sie es hilfreich oder aufdringlich? Welche Schritte sollten KI-Unternehmen unternehmen, um das Bot-Verhalten zu kontrollieren und politische Voreingenommenheit zu vermeiden? Welche Rolle spielen Regulierungsbehörden und Nutzer in diesem Prozess? Haben Sie jemals ChatGPT oder einen anderen KI-Bot verwendet, um politische Themen zu diskutieren? Wenn ja, wie war Ihre Erfahrung? Wenn nicht, warum nicht?
[ad_2]