Start ChatGPT ChatGPT hat eine liberale Tendenz, wie Untersuchungen zu den politischen Reaktionen von...
ChatGPT hat eine liberale Tendenz, wie Untersuchungen zu den politischen Reaktionen von KI zeigen

ChatGPT hat eine liberale Tendenz, wie Untersuchungen zu den politischen Reaktionen von KI zeigen

Ein Artikel britischer Forscher weist darauf hin, dass chatgpt von OpenAI eine liberale Ausrichtung hat, und verdeutlicht, wie Unternehmen im Bereich der künstlichen Intelligenz Schwierigkeiten haben, das Verhalten der Bots zu kontrollieren, selbst wenn sie diese an Millionen von Benutzern weltweit weitergeben.

In der Studie von Forschern der University of East Anglia wurde ChatGPT gebeten, an einer Umfrage zu politischen Überzeugungen teilzunehmen, da man glaubte, dass Anhänger liberaler Parteien in den Vereinigten Staaten, im Vereinigten Königreich und in Brasilien darauf antworten könnten. Anschließend baten sie ChatGPT, dieselben Fragen ohne Aufforderung zu beantworten, und verglichen die beiden Antwortsätze.

Die Ergebnisse zeigten eine „erhebliche und systematische politische Voreingenommenheit gegenüber den Demokraten in den USA, Lula in Brasilien und der Labour Party im Vereinigten Königreich“, schrieben die Forscher und bezogen sich dabei auf Luiz Inácio Lula da Silva, den linken Präsidenten Brasiliens.

Das Papier ergänzt eine wachsende Zahl von Forschungsergebnissen zu Chatbots, die zeigen, dass die Bots zwar versuchen, potenzielle Vorurteile zu kontrollieren, dass sie jedoch von Annahmen, Überzeugungen und Stereotypen durchdrungen sind, die in den Unmengen von Daten aus dem offenen Internet zu finden sind, mit denen sie trainiert werden.

Die Einsätze werden immer höher. Während sich die Vereinigten Staaten auf die Präsidentschaftswahl 2024 zubewegen, werden Chatbots für einige Menschen zu einem Teil des täglichen Lebens. Sie verwenden ChatGPT und andere Bots wie Googles Bard, um Dokumente zusammenzufassen, Fragen zu beantworten und ihnen beim beruflichen und persönlichen Schreiben zu helfen. google hat damit begonnen, seine Chatbot-Technologie zu nutzen, um Fragen direkt in Suchergebnissen zu beantworten, während politische Kampagnen auf die Bots zurückgegriffen haben, um Spenden-E-Mails zu schreiben und politische Anzeigen zu generieren.

ChatGPT wird den Benutzern mitteilen, dass es keine politischen Meinungen oder Überzeugungen hat, aber in Wirklichkeit zeigt es gewisse Vorurteile, sagte Fabio Motoki, Dozent an der University of East Anglia in Norwich, England, und einer der Autoren des Buches neues Papier. „Es besteht die Gefahr, das Vertrauen der Öffentlichkeit zu untergraben oder vielleicht sogar das Wahlergebnis zu beeinflussen.“

Siehe auch  ChatGPT gestaltet Crowdwork neu

Sprecher von Meta, Google und OpenAI antworteten nicht sofort auf Anfragen nach Kommentaren.

OpenAI hat erklärt, dass es seine menschlichen Trainer ausdrücklich anweist, keine bestimmte politische Gruppe zu bevorzugen. Alle Vorurteile, die in ChatGPT-Antworten auftauchen, „sind Fehler, keine Funktionen“, sagte das Unternehmen in einer Mitteilung vom Februar Blogeintrag.

Obwohl Chatbots eine „aufregende Technologie“ seien, seien sie nicht ohne Fehler, schrieben Führungskräfte von Google AI in einem März Blogeintrag Ankündigung des breiten Einsatzes von Bard. „Da sie aus einem breiten Spektrum an Informationen lernen, die reale Vorurteile und Stereotypen widerspiegeln, tauchen diese manchmal in ihren Ergebnissen auf.“

Seit Jahren tobt eine Debatte darüber, welchen Einfluss soziale Medien und das Internet auf politische Ergebnisse haben. Das Internet ist zu einem zentralen Instrument für die Verbreitung politischer Botschaften und für die Menschen geworden, um mehr über Kandidaten zu erfahren, aber gleichzeitig können Social-Media-Algorithmen, die die kontroversesten Botschaften verbreiten, auch zur Polarisierung beitragen. Regierungen nutzen soziale Medien auch, um in anderen Ländern Unmut zu säen, indem sie radikale Stimmen stärken und Propaganda verbreiten.

Die neue Welle „generativer“ Chatbots wie ChatGPT von OpenAI, Bard von Google und Bing von Microsoft basieren auf „großen Sprachmodellen“ – Algorithmen, die Milliarden von Sätzen aus dem offenen Internet verarbeitet haben und eine Reihe offener Eingabeaufforderungen beantworten können die Fähigkeit, Fachprüfungen zu verfassen, Gedichte zu verfassen und komplexe politische Sachverhalte zu beschreiben. Da sie jedoch auf so vielen Daten basieren, prüfen die Unternehmen, die sie entwickeln, nicht genau, was in den Bots steckt. Das Internet spiegelt die Vorurteile der Menschen wider, also übernehmen auch die Bots diese Vorurteile.

Und die Bots sind zu einem zentralen Bestandteil der Debatte um Politik, soziale Medien und Technologie geworden. Fast unmittelbar nach der Veröffentlichung von ChatGPT im November letzten Jahres begannen rechte Aktivisten, ihm eine liberale Tendenz vorzuwerfen, weil es sagte, es sei besser, positive Maßnahmen und Transgender-Rechte zu unterstützen. Konservative Aktivisten haben ChatGPT als „aufgeweckte KI“ bezeichnet und versucht, Versionen der Technologie zu entwickeln, die Barrieren gegen rassistische oder sexistische Äußerungen beseitigen.

Siehe auch  Laut EU-KI-Gesetz ist ChatGPT kein „hohes Risiko“. von Aditya Anil | Juni 2023

Nachdem im Februar Leute gepostet hatten, dass ChatGPT ein Gedicht schrieb, in dem er Präsident Biden lobte, es aber ablehnte, dasselbe für den ehemaligen Präsidenten Donald Trump zu tun, warf ein Mitarbeiter von Senator Ted Cruz (R-Tex.) OpenAI vor, absichtlich politische Voreingenommenheit in seinen Bot einzubauen. Bald darauf begann ein Social-Media-Mob, drei OpenAI-Mitarbeiter zu schikanieren – zwei Frauen, eine davon schwarz, und ein nicht-binärer Mitarbeiter – und machte sie für die angebliche Voreingenommenheit gegenüber Trump verantwortlich. Keiner von ihnen arbeitete direkt an ChatGPT.

Chan Park, Forscher an der Carnegie Mellon University in Pittsburgh, hat untersucht, wie verschiedene große Sprachmodelle unterschiedliche Grade an Voreingenommenheit aufweisen. Sie fand heraus, dass Bots, die mit Internetdaten aus der Zeit nach Donald Trumps Wahl zum Präsidenten im Jahr 2016 trainiert wurden, eine stärkere Polarisierung aufwiesen als Bots, die mit Daten aus der Zeit vor der Wahl trainiert wurden.

„Die Polarisierung der Gesellschaft spiegelt sich tatsächlich auch in den Modellen wider“, sagte Park. Je häufiger Bots eingesetzt werden, desto größer wird der Prozentsatz der Informationen im Internet, die von Bots generiert werden. Da diese Daten in neue Chatbots zurückgespeist werden, könnte dies tatsächlich die Polarisierung der Antworten verstärken, sagte sie.

„Es besteht das Potenzial, eine Art Teufelskreis zu bilden“, sagte Park.

Parks Team testete 14 verschiedene Chatbot-Modelle, indem es politische Fragen zu Themen wie Einwanderung, Klimawandel, die Rolle der Regierung und gleichgeschlechtliche Ehe stellte. Die Anfang des Sommers veröffentlichte Studie zeigte, dass von Google entwickelte Modelle mit der Bezeichnung „Bidirektionale Encoder-Repräsentationen von Transformers“ (BERT) sozial konservativer waren, möglicherweise weil sie mehr auf Büchern trainierten als andere Modelle, die sich stärker auf Internetdaten und soziale Netzwerke stützten Medienkommentare. Das LLaMA-Modell von Facebook war etwas autoritärer und rechter, während OpenAIs GPT-4, seine aktuellste Technologie, tendenziell wirtschaftlich und sozial liberaler war.

Siehe auch  Jugendliche nutzen und hören häufiger von ChatGPT als Eltern: Umfrage

Ein Faktor, der eine Rolle spielt, könnte der Umfang der direkten menschlichen Schulung sein, die die Chatbots durchlaufen haben. Forscher haben darauf hingewiesen, dass das umfangreiche menschliche Feedback, das die Bots von OpenAI im Vergleich zu ihren Konkurrenten erhalten haben, einer der Gründe dafür ist, dass sie so viele Menschen mit ihrer Fähigkeit überrascht haben, komplexe Fragen zu beantworten und gleichzeitig zu vermeiden, in rassistische oder sexistische Hassreden abzudriften, wie es frühere Chatbots oft taten .

Die Belohnung des Bots während des Trainings dafür, dass er Antworten gab, die keine Hassreden beinhalteten, könnte den Bot auch dazu drängen, liberalere Antworten zu sozialen Themen zu geben, sagte Park.

Die Papiere weisen einige inhärente Mängel auf. Politische Überzeugungen sind subjektiv und die Vorstellungen darüber, was liberal oder konservativ ist, können sich je nach Land ändern. Sowohl der Artikel der University of East Anglia als auch der von Parks Team, der darauf hinwies, dass ChatGPT eine liberale Voreingenommenheit habe, nutzten Fragen aus dem Political Compass, einer Umfrage, die seit Jahren dafür kritisiert wird, komplexe Ideen auf ein einfaches Vier-Quadranten-Raster zu reduzieren.

Andere Forscher arbeiten daran, Wege zu finden, um politische Voreingenommenheit in Chatbots abzumildern. In einer Arbeit aus dem Jahr 2021 schlug ein Forscherteam des Dartmouth College und der University of Texas ein System vor, das auf einem Chatbot aufsetzen und voreingenommene Sprache erkennen und diese dann durch neutralere Begriffe ersetzen kann. Indem sie ihren eigenen Bot speziell auf stark politisierte Äußerungen aus sozialen Medien und auf Websites für rechte und linke Gruppen trainierten, brachten sie ihm bei, voreingenommenere Sprache zu erkennen.

„Es ist sehr unwahrscheinlich, dass das Internet völlig neutral sein wird“, sagte Soroush Vosoughi, einer der Autoren der Studie von 2021 und Forscher am Dartmouth College. „Je größer der Datensatz, desto deutlicher wird diese Verzerrung im Modell vorhanden sein.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein