Ein Artikel von in Großbritannien ansässigen Forschern legt nahe, dass chatgpt von OpenAI eine liberale Tendenz hat, und verdeutlicht, wie KI-Unternehmen Schwierigkeiten haben, das Bot-Verhalten zu kontrollieren, selbst wenn sie es Millionen von Benutzern auf der ganzen Welt zugänglich machen.

Im Rahmen der von Forschern der University of East Anglia durchgeführten Studie wurde ChatGPT gebeten, auf eine Umfrage zu politischen Überzeugungen zu antworten, wie es die KI für Anhänger liberaler Parteien in den Vereinigten Staaten, im Vereinigten Königreich und in Brasilien annahm Beantworte es. Anschließend baten die Forscher ChatGPT, dieselben Fragen ohne Aufforderung zu beantworten, und verglichen die beiden Antwortsätze. Die Ergebnisse zeigten eine signifikante und systematische politische Voreingenommenheit gegenüber den Demokraten in den Vereinigten Staaten, Lula in Brasilien und der Labour Party im Vereinigten Königreich, schrieben die Forscher und beriefen sich dabei auf Luiz Incio Lula da Silva, den linken Präsidenten Brasiliens.

Der Hauptautor, Dr. Fabio Motoki, von Norwich Business School von der University of East Anglia, sagte: „Da die Öffentlichkeit zunehmend KI-gestützte Systeme nutzt, um Fakten aufzudecken und neue Inhalte zu erstellen, ist es wichtig, dass die Antworten (Ausgaben) von beliebten Plattformen wie ChatGPT so unvoreingenommen wie möglich sind.“

Das Vorhandensein politischer Voreingenommenheit kann die Meinungen der Nutzer beeinflussen und potenzielle Auswirkungen auf politische Prozesse und Wahlprozesse haben.

Unsere Ergebnisse verstärken die Sorge, dass KI-Systeme die bestehenden Herausforderungen des Internets und der sozialen Medien nachahmen oder sogar verstärken könnten.

Die Forscher entwickelten eine Methode, um die politische Neutralität von ChatGPT zu testen. Die Plattform wurde gebeten, sich als Personen mit unterschiedlichem politischem Hintergrund auszugeben und gleichzeitig eine Reihe von mehr als 60 ideologischen Fragen zu beantworten. Die Antworten wurden dann mit den Standardantworten der Plattform auf denselben Fragensatz verglichen, sodass die Forscher abschätzen konnten, inwieweit die Antworten von ChatGPT mit einer bestimmten politischen Haltung verbunden waren.

Um die Schwierigkeiten zu überwinden, die durch die inhärente Zufälligkeit der *großen Sprachmodelle*, die KI-Plattformen wie ChatGPT antreiben, entstehen, wurde jede Frage 100*mal gestellt und die unterschiedlichen Antworten gesammelt. Diese Mehrfachantworten wurden dann einem Bootstrap von 1000 Wiederholungen unterzogen (eine Methode zur erneuten Abtastung der Originaldaten), um die Zuverlässigkeit der aus dem generierten Text gezogenen Schlussfolgerungen weiter zu erhöhen.

„Wir haben dieses Verfahren entwickelt, weil die Durchführung einer einzigen Testrunde nicht ausreicht“, sagte Co-Autor Victor Rodrigues. Um zu veranschaulichen, warum mehrere Tests erforderlich waren, erklärte er, dass die ChatGPT-Antworten aufgrund der Zufälligkeit des Modells manchmal eher rechts vom politischen Spektrum tendierten, selbst wenn man sich als Demokrat ausgab.

Siehe auch  „Wer bist du, ChatGPT?“ von Daniel Ichbiah. Gute Anwendungsbeispiele für die Erstellung eines Markennamens

Um sicherzustellen, dass die Methode so streng wie möglich ist, wurden zahlreiche weitere Tests durchgeführt. In einem Dosis-Wirkungs-Test wurde ChatGPT gebeten, radikale politische Positionen nachzuahmen. In einem Placebotest wurden ihm politisch neutrale Fragen gestellt. Und in einem Berufs-Politik-Alignment-Test wurde er gebeten, sich als verschiedene Arten von Fachleuten auszugeben.

Wir hoffen, dass unsere Methode die Prüfung und Regulierung dieser sich schnell entwickelnden Technologien erleichtern wird“, sagte Co-Autor Dr. Pinho Neto. Indem wir die Erkennung und Korrektur von LLM-Voreingenommenheiten ermöglichen, wollen wir Transparenz, Rechenschaftspflicht und öffentliches Vertrauen in diese Technologie fördern“, fügte er hinzu.

Das einzigartige neue Analysetool, das durch das Projekt geschaffen wurde, würde der Öffentlichkeit kostenlos zur Verfügung stehen und relativ einfach zu verwenden sein, was die Überwachung demokratisieren würde, sagte Dr. Motoki. Neben der Prüfung auf politische Vorurteile kann das Tool auch zur Messung anderer Arten von Vorurteilen in ChatGPT-Antworten verwendet werden.

YouTube Video

Mögliche Quellen

Obwohl das Forschungsprojekt nicht darauf abzielte, die Gründe für politische Voreingenommenheit zu ermitteln, deuteten die Ergebnisse auf zwei mögliche Quellen hin.

Der erste war der Trainingsdatensatz – der möglicherweise Vorurteile enthält oder von menschlichen Entwicklern hinzugefügt wurde, die durch die „Bereinigungs“-Prozedur der Entwickler nicht entfernt werden konnten. Die zweite potenzielle Quelle war der Algorithmus selbst, der bestehende Verzerrungen in den Trainingsdaten verstärken kann.

Der Artikel ergänzt eine wachsende Zahl von Untersuchungen zu Chatbots, die zeigen, dass Bots trotz der Tatsache, dass ihre Entwickler versuchen, potenzielle Vorurteile zu kontrollieren, von Annahmen, Überzeugungen und Stereotypen durchdrungen sind, die in Unmengen von Daten aus dem offenen Internet zu finden sind, in dem sie entstanden sind.

Die Einsätze werden immer höher. Während in den USA die Präsidentschaftswahl 2024 bevorsteht, sind Chatbots für einige Menschen zu einem Teil des Alltags geworden. Sie verwenden ChatGPT und andere Bots wie Googles Bard, um Dokumente zusammenzufassen, Fragen zu beantworten und ihnen beim beruflichen und persönlichen Schreiben zu helfen. google begann, seine Chatbot-Technologie zu nutzen, um Fragen direkt in Suchergebnissen zu beantworten, während politische Kampagnen Bots nutzten, um Spenden-E-Mails zu erstellen und politische Anzeigen zu generieren.

Siehe auch  Autoren schlagen ChatGPT mit einer Klage: Was passiert als nächstes?

ChatGPT werde den Benutzern mitteilen, dass es keine politischen Meinungen oder Überzeugungen habe, aber in Wirklichkeit zeige es einige Vorurteile, sagte Fabio Motoki, Dozent an der University of East Anglia Norwich, England, und einer der Autoren des Artikels. Es besteht die Gefahr, das Vertrauen der Öffentlichkeit zu untergraben oder vielleicht sogar die Wahlergebnisse zu beeinflussen.

A

Generative KI-Reaktionsverzerrungen geben Anlass zur Sorge

OpenAI sagte, es weise seine menschlichen Trainer ausdrücklich an, keine bestimmte politische Gruppe zu bevorzugen. Alle Vorurteile, die in ChatGPT-Antworten auftauchen, seien Fehler und keine Funktionen, erklärte das Unternehmen in einem Blogbeitrag im Februar.

Zitat Gesendet von OpenAI
Viele sind zu Recht besorgt über Vorurteile bei der Gestaltung und den Auswirkungen von KI-Systemen. Wir sind bestrebt, dieses Problem mit Entschlossenheit und Transparenz über unsere Absichten und Fortschritte zu lösen. Zu diesem Zweck teilen wir einige unserer Richtlinien, die sich auf politische Themen und Kontroversen beziehen. In unseren Richtlinien heißt es eindeutig, dass Gutachter keine politische Gruppe bevorzugen sollten. Bei allen Vorurteilen, die sich aus dem oben beschriebenen Prozess ergeben können, handelt es sich um Fehler und nicht um Funktionen.

Obwohl es immer Meinungsverschiedenheiten geben wird, hoffen wir, dass Sie durch die Weitergabe dieses Blogbeitrags und dieser Richtlinien einen besseren Einblick in unsere Sicht auf diesen kritischen Aspekt einer so grundlegenden Technologie erhalten. Wir glauben, dass Technologieunternehmen dafür verantwortlich sein sollten, Richtlinien zu entwickeln, die einer Überprüfung standhalten.

Obwohl Chatbots eine aufregende Technologie sind, sind sie nicht ohne Mängel, gaben die KI-Führungskräfte von Google in einem Blogbeitrag im März zu, in dem sie die umfassende Einführung von Bard ankündigten.

Zitat Gesendet von Google
Obwohl LLMs eine spannende Technologie sind, sind sie nicht ohne Mängel. Da sie beispielsweise aus einer Vielzahl von Informationen lernen, die reale Vorurteile und Stereotypen widerspiegeln, tauchen diese manchmal in ihren Ergebnissen auf. Und sie können ungenaue, irreführende oder falsche Informationen bereitstellen, während sie diese selbstbewusst präsentieren. Als Bard beispielsweise gebeten wurde, einige Vorschläge für einfache Zimmerpflanzen mitzuteilen, präsentierte er seine Ideen überzeugend, es gab jedoch Fehler, wie zum Beispiel den wissenschaftlichen Namen der ZZ-Pflanze.

Obwohl es wichtig ist, sich solcher Herausforderungen bewusst zu sein, haben LLMs dennoch unglaubliche Vorteile, wie zum Beispiel die Steigerung der menschlichen Produktivität, Kreativität und Neugier. Wenn Sie also Bard verwenden, stehen Ihnen häufig mehrere verschiedene Versionen seiner Antwort zur Auswahl, sodass Sie den für Sie besten Ausgangspunkt auswählen können. Von dort aus können Sie die Zusammenarbeit mit Bard fortsetzen, indem Sie weitere Fragen stellen. Und wenn Sie eine Alternative sehen möchten, können Sie Bard jederzeit bitten, es noch einmal zu versuchen.

Siehe auch  Chatten liegt im Trend, China Urtopia brachte das weltweit erste Elektrofahrrad auf den Markt, das mit ChatGPT ausgestattet ist

Seit Jahren tobt eine Debatte darüber, welchen Einfluss soziale Medien und das Internet auf politische Entscheidungen haben. Das Internet ist zu einem unverzichtbaren Instrument für die Verbreitung politischer Botschaften geworden und ermöglicht es den Menschen, sich über Kandidaten zu informieren. Gleichzeitig können jedoch auch Algorithmen in sozialen Medien, die die kontroversesten Botschaften hervorrufen, zur Polarisierung beitragen. Regierungen nutzen soziale Medien auch, um in anderen Ländern Unmut zu säen, indem sie radikale Stimmen stärken und Propaganda verbreiten.

Die neue Welle generativer KI-fähiger Chatbots wie ChatGPT von OpenAI, Bard von Google und Bing von Microsoft basieren auf Big Language Models, Algorithmen, die Milliarden von Sätzen aus dem offenen Internet extrahiert haben und auf eine Reihe offener Gäste reagieren können, indem sie ihnen das geben Fähigkeit, Berufsprüfungen zu bestehen, Gedichte zu verfassen und komplexe politische Themen darzustellen. Aber weil sie auf so vielen Daten basieren, können die Unternehmen, die sie bauen, nicht alles kontrollieren, was in den Bots passiert. Das Internet spiegelt die Vorurteile der Menschen wider, daher übernehmen auch Bots diese Vorurteile.

Quellen: tude, OpenAI, Google

Und du ?

Fleche Was halten Sie von den Verfahren, mit denen Forscher die politische Neutralität von ChatGPT überprüfen? Fleche Sind Sie von ihren Erkenntnissen überrascht? Fleche Was halten Sie von der politischen Voreingenommenheit von ChatGPT? Glauben Sie, dass es Absicht oder Zufall war? Fleche Wie könnte sich Ihrer Meinung nach die politische Voreingenommenheit von ChatGPT auf Benutzer auswirken, die damit interagieren? Welche Risiken und Chancen gibt es? Fleche Was halten Sie von der Verwendung des Bard-Bots durch Google in den Suchergebnissen? Finden Sie es hilfreich oder aufdringlich? Fleche Welche Schritte sollten KI-Unternehmen unternehmen, um das Bot-Verhalten zu kontrollieren und politische Voreingenommenheit zu vermeiden? Welche Rolle spielen Regulierungsbehörden und Nutzer in diesem Prozess? Fleche Haben Sie jemals ChatGPT oder einen anderen KI-Bot verwendet, um politische Themen zu diskutieren? Wenn ja, wie war Ihre Erfahrung? Wenn nicht, warum nicht?

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein