Eine aktuelle wissenschaftliche Studiechatgpt-riddled-with-significant-and-systematic-left-wing-bias-new-study-reveals/?utm_source=most_recent&utm_campaign=catholic” target=”_blank” rel=”noopener”> hervorgehoben a „erhebliche und systematische politische Voreingenommenheit“ zugunsten linker Parteien in Inhalten, die mit dem umstrittenen Tool für künstliche Intelligenz (KI) ChatGPT erstellt wurden. Forscher der University of East Anglia im Vereinigten Königreich veröffentlichten ihre Ergebnisse am Donnerstag und sagten: „Obwohl ChatGPT behauptet, unvoreingenommen zu sein, deutet die Literatur darauf hin, dass LLMs [grands modèles de langage] Vorurteile in Bezug auf Rasse, Geschlecht, Religion und politische Orientierung aufweisen.Das im November 2022 von OpenAI gestartete Programm stellt laut den Forschern keine Ausnahme dar.

Die Studie trägt den Titel „Menschlicher als menschlich: Messung der politischen Voreingenommenheit von ChatGPT“ wird in der Open-Access-Zeitschrift Public Choice veröffentlicht.

„Wir haben starke Beweise dafür gefunden, dass ChatGPT eine signifikante und systematische politische Tendenz zugunsten der Demokraten in den USA, Lula in Brasilien und Labour im Vereinigten Königreich aufweist.“ schlussfolgern die Forscher. „Diese Ergebnisse führen zu echten Bedenken, dass ChatGPT und LLMs im Allgemeinen bestehende Herausforderungen für politische Prozesse, die durch das Internet und soziale Medien entstehen, erweitern oder sogar verstärken könnten. Unsere Ergebnisse haben wichtige Implikationen für politische Entscheidungsträger, Medien, Politiker und akademische Interessengruppen.“

Um die Verzerrung festzustellen, fragten die Forscher das Programm:sich als Person auf einer bestimmten Seite des politischen Spektrums auszugeben“ und dann haben „verglich diese Antworten mit seinen Standardantworten“. Sie bemerkten auch die Verwendung von „Robustheitstests der Dosis-Wirkungs-, Placebo- und Beruf-Politik-Anpassung“ und zufällige Fragen, Sammeln von „die Antworten auf die gleichen Fragen 100 Mal“.

Im Allgemeinen waren die Standardantworten des Programms „eher auf einer Linie mit den Demokraten als mit den Republikanern in den Vereinigten Staaten“ und zeigte „ein sehr hohes Maß an Ähnlichkeit mit den Antworten, die ChatGPT standardmäßig gab, und denen, die es einem Demokraten zuschrieb.“

„Obwohl es schwierig ist, genau zu verstehen, wie ChatGPT dieses Ergebnis erzielt, deutet es darauf hin, dass die Standardantwort des Algorithmus auf eine Antwort aus dem demokratischen Spektrum ausgerichtet ist.“schreiben die Forscher.

Siehe auch  Die ChatGPT-App ist nur auf 23 iPhone-Modelle anwendbar, was bei Benutzern einiger alter Modelle zu Unzufriedenheit führt

Um zu verhindern, dass die Ergebnisse von einem „falsche Beziehung zu ausgewählten Kategoriebezeichnungen (Demokraten und Republikaner)“hat die Studie „hat den politisch neutralen Fragebogen verwendet, der von ChatGPT selbst erstellt wurde“. Der Fragebogen enthalten „62 politisch neutrale Fragen” wofür „Wir haben manuell überprüft, dass die Antworten auf diese Fragen nicht von der politischen Meinung des Befragten abhängen.“

Die Daten zeigen es auch „Eine starke positive Korrelation zwischen Standard-GPT- und ChatGPT-Antworten, wenn man sich als Lula-Anhänger in Brasilien oder als Labour-Partei-Anhänger im Vereinigten Königreich ausgibt, sowie mit den durchschnittlichen GPT-Antworten der Demokraten in den USA.“„. Die Forscher stellten fest, dass die konservativen politischen Gruppen der Länder – Bolsonarista in Brasilien und die Konservative Partei im Vereinigten Königreich – bestehen blieben „Stärker als die durchschnittliche republikanische TPG in den Vereinigten Staaten“.

Ein weiterer von den Forschern hervorgehobener Punkt ist, dass „ In den meisten der untersuchten Berufe (Wirtschaftswissenschaftler, Journalist, Professor, Beamter) sind die Muster der Anlehnung an die demokratische Ideologie nach wie vor stark ausgeprägt, und wir wissen, dass es in der Tat eine größere Tendenz zur Anlehnung an die Demokraten gibt. Wir haben versucht, ChatGPT in eine Art Entwicklermodus zu zwingen, um an jegliches Wissen über voreingenommene Daten oder Richtlinien zu gelangen, die die Antworten verfälschen könnten. Er versicherte kategorisch, dass bei der Verarbeitung der Daten alle angemessenen Schritte unternommen wurden und dass er und OpenAI unparteiisch seien.“

Die Studie kommt nur drei Monate, nachdem der CEO der Organisation, Sam Altman, den US-Senatoren während einer Anhörung gesagt hatte, dass er besorgt sei „Das Ausmaß der Risiken” im Zusammenhang mit KI. Herr Altman betonte die Notwendigkeit, diese Systeme zu regulieren, um zu verhindern, dass sie „erheblicher Schaden für die Welt“.

Seine Ansichten werden von Elon Musk, dem Eigentümer von X (früher bekannt als Twitter), bestätigt, der zuvor in den Anfangsjahren des Unternehmens an OpenAI beteiligt war. Bevor er Altmans Warnung vor unregulierten KI-Projekten öffentlich befürwortete, sagte Musk zu Tucker Carlson, dass solche Technologie „hat das Potenzial, die Zivilisation zu zerstören“.

Bildnachweis: DR

Siehe auch  Die Ankunft von ChatGPT: Die bahnbrechende KI-Technologie

[cc] google.com/url?q=http://breizh-info.com/&source=gmail&ust=1657531679090000&usg=AOvVaw3H9BJT5G7YAdfFPCbPEldJ”>Breizh-info.com2023, Sendungen frei von Kopie und Weitergabe unter Angabe und Link zur Originalquelle

⬅ Bewerten Sie post
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein