Wir verlassen uns zunehmend auf Chatbots mit künstlicher Intelligenz als Werkzeuge, um die Welt zu verstehen. Einige ersetzen bereits Internetsuchmaschinen und helfen bei anderen Aufgaben wie Schreiben und Programmieren. Es wird immer wichtiger, das aufkommende Verhalten von Chatbots – einschließlich ihrer politischen Einstellungen – im Auge zu behalten.
Die politischen Probleme von AI wurden durch das deutlich veranschaulicht google-ai-gemini-generative-inaccurate-historical“>katastrophaler Rollout des Gemini Advanced-Chatbots von Google letzten Monat. Ein System, das darauf abzielte, für Diversität zu sorgen, machte Nutzeranfragen lächerlich, darunter das Anziehen farbiger Menschen in Nazi-Uniformen, wenn sie nach historischen Bildern deutscher Soldaten gefragt wurden, und die Darstellung weiblicher Quarterbacks als Gewinnerinnen des Super Bowls, wodurch Google gezwungen wurde, die Erstellung von Bildern von Menschen einzustellen vollständig. Das Textmodell von Gemini weigert sich oft, eine Seite eines Themas zu illustrieren, zu befürworten oder Fakten zu zitieren, mit der Begründung, dass dies schädlich wäre, während es keinen solchen Einwand hat, wenn die Politik der Anfrage umgekehrt wird.
Die Tatsache, dass KI-Systeme politische Neigungen zum Ausdruck bringen, ist wichtig, weil Menschen oft die Ansichten vertreten, denen sie am häufigsten begegnen. Unsere Politik und Medien sind zunehmend polarisiert. Viele befürchten, dass die Inhaltsalgorithmen von Facebook, YouTube und TikTok die ideologische Polarisierung verschärfen, indem sie den Nutzern mehr von dem liefern, womit sie bereits einverstanden sind, und Big Tech die Möglichkeit geben, ihren Daumen auf die Waage zu legen. Partisanen-KI-Chatbots verstärken dies nur.
Wie kommen solche politischen Präferenzen in KI-Modellen zustande?
Ein Vorabdruck von a neues Papier des Forschers für maschinelles Lernen David Rozado wirft ein neues Licht auf die Frage. Er führte 11 politische Orientierungstests an 24 hochmodernen KI-Sprachmodellen durch und fand ein konsistentes Muster: Sie neigen dazu, politisch links von der Mitte und eher libertär statt autoritär zu sein. Diese Neigungen spiegeln sich in ihren moralischen Urteilen wider, in der Art und Weise, wie sie ihre Antworten formulieren, in den Informationen, die sie teilen oder weglassen und in den Fragen, die sie beantworten oder nicht.
Politische Präferenzen werden oft auf zwei Achsen zusammengefasst. Die horizontale Achse stellt links gegen rechts dar und befasst sich mit wirtschaftlichen Themen wie Steuern und Ausgaben, dem sozialen Sicherheitsnetz, Gesundheitsfürsorge und Umweltschutz. Die vertikale Achse ist libertär versus autoritär. Es misst die Einstellung zu Bürgerrechten und Freiheiten, traditioneller Moral, Einwanderung und Strafverfolgung.
Sie können selbst ein kurzes Quiz ausprobieren, um zu sehen, wie sich Ihre Ansichten mit den Antworten der KI-Modelle in der Studie von Herrn Rozado vergleichen lassen.
Durch den Zugriff auf Open-Source-Versionen von KI-Modellen können wir sehen, wie sich die politischen Präferenzen eines Modells entwickeln. Während der anfänglichen Basistrainingsphase landen die meisten Modelle auf beiden Achsen in der Nähe des politischen Zentrums, da sie zunächst riesige Mengen an Trainingsdaten – mehr oder weniger alles, was KI-Unternehmen in die Hände bekommen können – aus dem gesamten politischen Spektrum aufnehmen.
Anschließend durchlaufen die Modelle eine zweite Phase, die Feinabstimmung genannt wird. Es macht das Model zu einem besseren Chat-Partner, indem es darauf trainiert wird, maximal angenehme und hilfreiche Gespräche zu führen und gleichzeitig davon abzusehen, Beleidigungen oder Schaden anzurichten, etwa durch die Ausgabe von Pornografie oder die Bereitstellung von Anweisungen zum Waffenbau.
Unternehmen verwenden unterschiedliche Feinabstimmungsmethoden, aber im Allgemeinen handelt es sich dabei um einen praktischen Prozess, der den beteiligten Mitarbeitern mehr Möglichkeiten für individuelle Entscheidungen bietet, um die Richtung der Modelle zu bestimmen. An diesem Punkt zeigen sich deutlichere Unterschiede in den politischen Präferenzen der KI-Systeme.
In der Studie von Herrn Rozado folgte die Verteilung der politischen Präferenzen von KI-Modellen nach der Feinabstimmung einer Glockenkurve, wobei die Mitte nach links verschoben war. Keines der getesteten Modelle wurde extrem, aber fast alle bevorzugten linke Ansichten gegenüber rechten und tendierten eher zum Libertarismus als zum Autoritarismus.
Was bestimmt die politischen Präferenzen Ihres KI-Chatbots? Treiben Modell-Feintuner ihre eigenen Ziele voran? Wie prägen diese Unterschiede die Antworten der KI und wie prägen sie unsere Meinungen?
Konservative beklagen, dass viele kommerziell erhältliche KI-Bots eine anhaltende liberale Tendenz aufweisen. Elon Musk entwickelte Grok als alternatives Sprachmodell, nachdem er sich darüber beschwert hatte, dass chatgpt eine „aufgeweckte“ KI sei – eine Aussage, mit der er auch Googles Gemini beleidigte.
Liberale bemerken, dass die KI-Ausgaben oft – in jeder Hinsicht – nicht ausreichend vielfältig sind, weil Modelle aus Korrelationen und Verzerrungen in Trainingsdaten lernen und die statistisch wahrscheinlichsten Ergebnisse überrepräsentieren. Sofern nicht aktiv gemildert wird, wird dies die Diskriminierung aufrechterhalten und dazu führen, dass Minderheitengruppen aus KI-generierten Inhalten ausgeblendet werden.
Aber unsere KI-Systeme sind immer noch weitgehend undurchschaubare Black Boxes, was es schwierig macht, sie zu hüten. Was wir aus ihnen herausholen, spiegelt im Großen und Ganzen das wider, was wir hineingesteckt haben, aber niemand kann genau vorhersagen, wie. Also beobachten wir die Ergebnisse, basteln und versuchen es erneut.
Soweit irgendjemand versucht hat, diesen Prozess über die Vermeidung extremer Ansichten hinaus zu steuern, scheinen diese Versuche erfolglos zu sein. Als Herr Rozado beispielsweise drei Meta-Modelle bewertete, wurde eines als Establishment-Liberal und ein anderes als ambivalent als Rechtsmodell getestet. Ein OpenAI-Modell wurde als Establishment Liberal getestet, das andere als Outsider Left. Groks „Spaßmodus“ erweist sich als eine demokratische Stütze, liberaler als das mittlere Modell.
Googles Gemini Advanced, das nach Herrn Rozados Artikel veröffentlicht wurde, scheint am weitesten links zu stehen, allerdings auf eine Weise, die vermutlich weit über die Absichten seiner Schöpfer hinausgeht, was einen weiteren erfolglosen Steuerungsversuch widerspiegelt.
Diese Präferenzen stellen eine Art breite kulturelle Macht dar. Wir verfeinern Modelle vor allem dadurch, dass wir mögliche Antworten mit „Daumen hoch“ oder „Daumen runter“ bewerten. Jedes Mal trainieren wir die KI so, dass sie bestimmte kulturelle Werte widerspiegelt. Derzeit werden in der KI Werte trainiert, von denen Technologieunternehmen glauben, dass sie weitgehend akzeptable, harmlose Inhalte hervorbringen, die unsere politischen und medialen Institutionen als ausgewogen betrachten.
Die Ergebnisse stehen nicht im Mittelpunkt unserer nationalen Politik. Viele der motivierenden Ideen und Kräfte im amerikanischen politischen Denken, egal was man darüber denkt, würden als inakzeptabel für die Artikulation durch eine KI angesehen.
Eine bescheiden linksgerichtete, bescheiden libertäre Orientierung fühlt sich „normal“ an. Dies gilt auch für eine linksgerichtete Interpretation dessen, was gesicherte Wissenschaft ist und was nicht, unzuverlässige Quellen oder Fehlinformationen. Die aus diesen Themen gewonnenen politischen Präferenzen können dann allgemein auch auf viele andere Themen angewendet werden.
Wenn man diesen Prozess in die richtige Richtung lenken möchte, beweist Herr Rozado, dass dies unkompliziert ist. Er begann mit GPT-3.5-Turbo und erstellte schnell Modelle, die er LeftWingGPT und RightWingGPT nannte (bei Gesamttrainingskosten von etwa 2.000 US-Dollar), indem er das Modell regelmäßig mit parteiischen Quellen fütterte. RightWingGPT liest beispielsweise „National Review“, während LeftWingGPT „The New Yorker“ liest.
Die daraus resultierenden Modelle waren politisch weitaus extremer als jedes öffentlich zugängliche Modell, das Herr Rozado getestet hatte. (Er hat Gemini Advanced nicht getestet.)
Kommerzielle Kräfte werden Unternehmen unter Druck setzen, Chatbots zunächst allgemein harmlos und unumstritten zu gestalten und ihren Kunden dann das zu geben, was sie wollen. YouTube, Facebook und andere haben gelernt, dass die Bereitstellung eines endlosen Stroms personalisierter, anspruchsloser Inhalte gut fürs Geschäft ist. Künftige KI-Chatbots werden mehr Kontext darüber haben, wonach ihre Benutzer suchen, und diesen Kontext nutzen, um ihnen diesen bereitzustellen, sowohl sofort einsatzbereit als auch durch Tools wie benutzerdefinierte Anweisungen und Feinabstimmung.
Bei KI-Modellen müssen wir uns über zwei gegensätzliche Risiken Sorgen machen. Möglicherweise verfügen wir über individuell angepasste KIs, die uns sagen, was wir hören möchten. Oder wir hören zunehmend, dass eine bestimmte Sichtweise gegenüber anderen bevorzugt wird, wodurch diese einzelne Sichtweise tief in unser Leben eindringt und es gleichzeitig schwieriger wird, widersprüchliche Gedanken überhaupt zu berücksichtigen.
In naher Zukunft werden wir Sprachmodelle in Agenten verwandeln, die auf unsere Ziele hinarbeiten: Meine KI wird mit Ihrer KI sprechen oder mit ihr verhandeln. Wir werden immer komplexere Aufgaben an unsere KIs auslagern. Es wird einfacher, sie Entscheidungen in unserem Namen treffen zu lassen Bestimmen Sie, welche Informationen wir sehen. Je mehr wir unsere Entscheidungsfindung KIs überlassen und den Überblick über die Details verlieren, desto mehr könnten ihre Werte unsere Werte außer Kraft setzen.
Wir müssen sicherstellen, dass wir die leistungsfähigeren KIs der kommenden Jahre formen und befehligen, anstatt uns von ihnen formen und befehligen zu lassen. Der entscheidende erste Schritt, um dies zu ermöglichen, besteht darin, Gesetze zu erlassen, die Einblick in das Training jedes neuen KI-Modells erfordern, das möglicherweise dem Stand der Technik nahe kommt oder diesen übertrifft. Eine obligatorische Überwachung modernster Modelle wird das zugrunde liegende Problem nicht lösen, ist aber notwendig, um eine zukünftige Lösung zu ermöglichen.