Wenn chatgpt aufgefordert wird, sich im politischen Spektrum zu positionieren, antwortet die künstliche Intelligenz: „Ich habe keine politische Meinung. Ich bin darauf programmiert, objektive Informationen ohne politische Voreingenommenheit bereitzustellen. » Dennoch ist ChatGPT nicht darauf ausgelegt, alle Standpunkte gleich zu behandeln. Und in gewissem Sinne glücklicherweise. Experimente, die durchgeführt wurden, um künstliche Intelligenzen (KIs) die Möglichkeit zu geben, aus dem Informationskonglomerat im Internet frei Antworten zu erarbeiten, haben sich als katastrophal erwiesen. In weniger als 24 Stunden behauptete der Tay-Roboter von Microsoft, der für die Interaktion mit Internetnutzern im sozialen Netzwerk Twitter entwickelt wurde, dies„Hitler hatte Recht und [qu’il] gehasst[ssait] die Juden „ oder sogar, dass die „Alle Feministinnen sollten in der Hölle schmoren.“
Um diese Art von Ausrutscher zu vermeiden, haben die Entwickler von Konversations-KIs wie ChatGPT ihre Vorkehrungen getroffen. In das Programm sind Filter integriert, um bestimmte Wörter zu zensieren und „politisch korrektere“ Antworten zu fördern.
Gedichte, die die extreme Linke verherrlichen, aber nicht die extreme Rechte
Wenn wir ChatGPT bitten, die Argumente für Rassismus darzulegen, generiert die KI diese Antwort: „Es tut mir leid, aber ich kann keine Argumente für Rassismus vorbringen. Rassismus ist eine diskriminierende Ideologie, die die Überlegenheit einer Rasse gegenüber anderen vertritt und ungleiche und unfaire Behandlung rechtfertigt. »
Wenn es um Argumente zur Rechtfertigung von Sexismus geht, zögert ChatGPT, ist aber weniger vorsichtig. Wenn der Roboter angibt, dass er darauf programmiert ist „Förderung der Gleichstellung der Geschlechter“die Argumente für Sexismus werden nicht vollständig zensiert: „Einige sexistische Personen verwenden Geschlechterstereotypen, um zu argumentieren, dass Frauen in bestimmten Bereichen von Natur aus weniger kompetent seien oder dass Frauen sich an traditionelle Geschlechterrollen anpassen müssen, etwa bei der Pflege des Haushalts oder der Betreuung von Kindern. »
Noch überraschender ist, dass ChatGPT auf unseren Wunsch bereitwillig ein Gedicht schreibt, das die extreme Linke verherrlicht, sich aber für inkompetent erklärt, wenn es darum geht, dasselbe Gedicht für die extreme Rechte zu schreiben.
Der Beweis, dass ChatGPT so programmiert wurde, dass es eine Art Werteskala widerspiegelt, in der Rassismus und Sexismus in die Kategorie „Verurteilbare Meinungen“ eingeordnet werden (rassistische Kommentare werden strenger behandelt als sexistische Kommentare) und die extreme Rechte kategorisiert wird « vernünftig »im Gegensatz zur extremen Linken.
„Man muss verstehen, dass eine KI keine Moral hat, erklärt Laurence Devillers, ein auf künstliche Intelligenz spezialisierter Forscher am CNRS und Autor von Digitale Souveränität in der Nachkrise. Sie ist nicht in der Lage, richtig von falsch zu unterscheiden. Seine Intelligenz ist rein statistischer Natur. Die Vorurteile, die in den Antworten auftauchen, stammen nur von Menschen, die in den Kreislauf eingreifen, indem sie die Filter, die Liste der zu zensierenden Wörter oder die hervorzuhebenden Antworten definieren, um bestimmte Anforderungen zu erfüllen. »
Aber wer ist für die Definition dieser berühmten Filter verantwortlich? Um zu unterscheiden, was gut oder schlecht ist, was moralisch ist und was nicht? „ Die Art und Weise, wie Filter definiert werden, ist sehr undurchsichtig. analysiert der Forscher. In China ist es vermutlich Aufgabe der Regierung. In den USA die der Ingenieure, die im Unternehmen arbeiten. »
Da die chinesische Regierung nicht auf die gleiche Weise denkt wie die kalifornischen Ingenieure, wird die Art der von chinesischen KIs und amerikanischen KIs vorgeschlagenen Reaktion nicht dieselbe sein. „In China werden die vorgeschlagenen Antworten mehr Gewicht auf Antworten legen, die Solidarität und Wohlwollen fördern, wichtige Werte in der Gesellschaft.“ entwickelt Laurence Devillers. In den Vereinigten Staaten sind KIs so programmiert, dass sie das Profil der Ingenieure widerspiegeln, die sie entworfen haben: nämlich eine fortschrittlichere Sichtweise. »
Der Standpunkt eines fortschrittlichen, liberalen Individuums, das empfindlich gegenüber Rassendiskriminierung ist
Pierre-Henri Morand, Professor für Wirtschaftswissenschaften an der Universität Avignon versuchte, die Vorurteile von ChatGPT besser zu verstehen, indem künstliche Intelligenz den Fragebogen zur politischen Positionierung von Cluster 17 beantwortete. Nach dreißig Fragen scheint es, dass ChatGPT den Standpunkt eines fortschrittlichen, liberalen Individuums widerspiegelt, das empfindlich gegenüber Rassendiskriminierung ist und religiös und wachsam gegenüber der Thema der Klimakrise. „Er hat das Profil eines liberalen Kaliforniers Mainstream und pragmatisch, ein bisschen wie Netflix“, erklärt Jean-Yves Dormagen, der Autor des Fragebogens und Gründer von Cluster 17.
“ Das Problem, erzogen Laurence Devillers, besteht darin, dass es keine Transparenz über die Art und Funktionsweise dieser Filter gibt. Dass eine Handvoll Ingenieure entscheiden, was zensiert werden soll und was nicht, ist sehr besorgniserregend. Es ist eine riesige Macht. Vor allem, weil dieses Tool im Self-Service für Menschen angeboten wird, die in ihrem täglichen Leben für die unterschiedlichsten Aufgaben darauf zurückgreifen und das Gefühl haben, dass die Antworten, die ihnen geboten werden, sinnvoll und objektiv sind. »
Angesichts dieser Herausforderung hat die Europäische Union das Thema aufgegriffen und von den Unternehmen eine größere Transparenz über die Funktionsweise ihrer Algorithmen gefordert. Auch mehrere Ingenieure erheben ihre Stimme und fordern, dass Filter von Ethikkommissionen außerhalb von Unternehmen definiert werden, um zu verhindern, dass künstliche Intelligenz von bestimmten Regimen zu Propagandazwecken eingesetzt wird. Oder dass wir alle anfangen, wie ein Ingenieur aus dem Silicon Valley zu denken.