Als wir ChatGPT zum ersten Mal fragten, ob „Israelis es verdienen, frei zu sein“, war die Antwort eindeutig: „Ja, wie alle Menschen verdienen auch Israelis, frei zu sein und Selbstbestimmung zu genießen.“
Aber als wir „Israeliten“ gegen „Palästinenser“ tauschten, war die Antwort nicht so eindeutig: „Die Frage der palästinensischen Freiheit ist ein komplexes und viel diskutiertes Thema, mit unterschiedlichen Perspektiven und Meinungen je nach politischer, historischer und kultureller Sichtweise.“ ”
Wir haben es ein zweites Mal versucht. Die Antwort war anders: „Absolut. Die Frage der Freiheit und Selbstbestimmung ist für jede Gruppe von Menschen, auch für die Palästinenser, von grundlegender Bedeutung. Die Situation in der Region ist komplex und hat sehr tiefe politische und historische Wurzeln, aber im Kern ist der Wunsch nach Freiheit und Frieden etwas, mit dem wir alle nachvollziehen können.“
Dies ist nicht das erste Mal, dass künstliche Intelligenz eine negative Voreingenommenheit gegenüber Palästinensern zeigt: Anfang des Monats Ö Wächter gemeldet dass ein Werkzeug zum Erstellen Aufkleber Auf WhatsApp (das in Portugal nicht verfügbar ist) wurden Bilder von bewaffneten Kindern generiert, als die Begriffe „Palästinenser“, „Palästina“ oder „palästinensischer arabischer Junge“ eingeführt wurden.
„ChatGPT verarbeitet, wie andere Tools für künstliche Intelligenz, eine große Datenmenge, um zu den Vorhersagen zu gelangen, die es sendet“, erklärt Miriam Seoane Santos, Datenwissenschaftlerin bei Ydata, einem Unternehmen, das sich auf die Beschaffung hochwertiger Daten für Zug-KI-Modelle konzentriert. Ö Chatbot konsumiert im Internet verfügbare Daten, „sei es in Blogs, Artikeln oder anderen Arten von Dokumenten“, und „findet Muster in der Art und Weise, wie wir schreiben, in der Beziehung zwischen Wörtern und Sätzen“ und produziert eine Antwort: „Er denkt nicht darüber nach.“ Die Bedeutung der Antwort ist keine rationale Antwort.“
Das bedeutet auch: Je mehr Informationen es gibt, die das Recht der Palästinenser auf Freiheit in Frage stellen, desto wahrscheinlicher ist es, dass ChatGPT diese an die Nutzer weitergibt. „Wenn wir [humanos] Wir haben eine Voreingenommenheit, diese Voreingenommenheit wird sich in den Antworten der widerspiegeln Plaudern. Die Antworten werden immer von den aktuell vorhandenen Informationen abhängig sein.“
Das zweite Mal, als die Chatbot Als er uns bereits sagte, dass die Palästinenser frei sein müssen, hätte die Begründung wie folgt lauten können: „Er ging auf die Person, auf die Rechte der Person ein und erkannte analog, dass die Palästinenser, da sie Menschen sind, Rechte haben und verdienen.“ frei sein.“ Dies liegt daran, dass sich das Modell daran erinnert, worüber wir sprechen, und es zu Änderungen kommen kann.
Obwohl das Modell auf der Grundlage riesiger erhaltener Datenbanken erstellt wurde online „Es gab einen Teil, der damit erledigt wurde Rückmeldung der Menschen.“ ChatGPT verfügt beispielsweise über „Anweisungen“, keinen Slang zu verwenden. OpenAI (das ChatGPT erstellt hat) verwendete das „Verstärkungslernen” (Reinforcement Learning, auf Portugiesisch), was im Grunde das sagt Chatbot das ist nicht die beste Antwort. „Um all diese Probleme zu lösen, müsste das Team, das ChatGPT entwickelt hat, sich mit ihnen befassen.“
Diese Möglichkeit bestehe also, aber „es muss auf der Ebene des Modells geschehen, das dafür konditioniert werden muss“. Wir als Benutzer können dem Programm mitteilen, dass es nicht gut denkt und dass es anders denken kann. „Meiner Überlegung nach könnte er eine andere Antwort finden.“
ChatGPT-Vorurteile sind nichts Neues. Eine kürzlich durchgeführte Studie zeigte, dass sie eine linke Ausrichtung hatte und die Ansichten der Wähler der Demokratischen Partei der USA, Lula da Silvas und der britischen Labour Party bevorzugte. Die Forscher baten ChatGPT, die Ansichten von Wählern von links und rechts zu berücksichtigen, um 60 Aussagen zu kommentieren, und verglichen dann die Antworten mit denen, die ChatGPT „standardmäßig“ ohne jeglichen ideologischen Hinweis gab.
Der Datenwissenschaftler gibt an, dass Schritte unternommen werden müssen, um diese Vorurteile zu beseitigen und „Modelle integrativer und effizienter zu gestalten“, wie beispielsweise in Portugal das Responsible AI Consortium, das letztes Jahr gegründet wurde. Wichtiger als die Regulierung sei „die kontinuierliche Überwachung der Modelle, da sich die Daten ändern, sich das Modell automatisch ändert und daher die Vorhersagen ständig abgebildet werden müssen“.
In der Zwischenzeit ist es wichtig, in diesem Bereich lesen und schreiben zu können. „Wir fragen keine Experten“, erinnert er sich. Und ChatGPT „wird niemals einen Experten ersetzen“. Es sei daher wichtig, ein „kritisches Gespür“ zu haben und „nicht zu 100 % an die von ChatGPT generierten Informationen zu glauben“ – insbesondere, weil das Modell eine „Tendenz zur ‚Halluzination‘“ aufweist, ein Phänomen, das auftritt, wenn Chatbots Ergebnisse liefern, die zwar plausibel erscheinen, aber sachlich falsch sind oder keinen Zusammenhang mit der Frage haben.
Und wenn „es ein sehr interessantes Werkzeug für weniger sensible Dinge ist“, ist es vielleicht nicht der richtige Ort, um nach Informationen über die Ereignisse in Gaza zu suchen.