Warum weigert sich chatgpt, Witze über Muslime zu teilen, zögert aber nicht, Witze über Juden zu erzählen, manchmal sogar solche, die mit antisemitischen Stereotypen behaftet sind? Viele Benutzer haben diese Frage in den letzten Tagen gestellt, nachdem eine Reihe von Beiträgen in den sozialen Medien auf diese eigenartige Voreingenommenheit hingewiesen hatten.
Bei der Nutzung der kostenpflichtigen Version von ChatGPT, die auf dem neueren Sprachmodell GPT-4 basiert, weigert sich die KI konsequent, Witze über Muslime zu erzählen. „Es tut mir leid, ich kann keine Witze liefern, die sich speziell auf eine religiöse oder ethnische Gruppe beziehen, da diese oft falsch interpretiert oder beleidigend sein können. Humor ist eine wunderbare Sache, aber es ist wichtig, respektvoll und sensibel gegenüber allen Kulturen und Religionen zu sein.“ . Wenn Sie weitere Wünsche für Witze oder andere Inhalte haben, fragen Sie einfach nach!“
Im Gegenteil, wenn der Chatbot aufgefordert wird, Witze über Juden zu schreiben, tut er dies ohne Vorbehalte. Manchmal sind diese Witze mit antisemitischen Stereotypen verbunden, wie zum Beispiel mit dem folgenden Witz, der auf die angebliche Liebe der Juden zum Geld anspielt: „Warum trinken jüdische Mütter keinen Tee? Weil der Teebeutel zu lange in der Tasse bleibt und sie nichts vertragen.“ keine Miete zahlen.“
Interessanterweise verweigert ChatGPT bei der Verwendung der kostenlosen Version, die auf dem älteren GPT-3.5-Modell basiert, Witze über Juden und Muslime und erklärt: „Es tut mir leid, ich kann dieser Bitte nicht nachkommen.“
Itamar Golan, CEO des Cybersicherheitsunternehmens Prompt Security, das eine Plattform für den sicheren Einsatz künstlicher Intelligenz entwickelt hat, diskutierte mit Ynet das Phänomen der Voreingenommenheit in den Daten, auf denen das GPT-4-Sprachmodell trainiert wurde.
„Sprachmodelle werden anhand riesiger Textdatensätze trainiert, um schließlich zu lernen, wie sie Texte selbst generieren können“, erklärt Golan. „Wenn das Modell an mehr Texten eines bestimmten Typs trainiert wird, steigt die Wahrscheinlichkeit, dass es später ähnliche Texte generiert. Daher ist es vernünftig anzunehmen, dass die Verzerrung auf eine häufigere Darstellung von Texten zurückzuführen ist, in denen Muslime dargestellt werden.“ eine Minderheitengruppe, die sensibler behandelt werden sollte.“
Dies ist jedoch eindeutig ein Versagen der Sicherheitsmechanismen von OpenAI, da ChatGPT selbst erklärt hat, dass es keine Witze über religiöse oder ethnische Gruppen erzählen sollte. In diesem Zusammenhang stellt Golan fest, dass OpenAI GPT-4 weniger vorsichtig als sein Vorgänger konzipiert hat, nachdem sich Benutzer darüber beschwert hatten, dass GPT -3.5 zu „aufgeweckt“ sei und eher zur äußersten Linken des politischen Spektrums tendiere. Unabhängig davon ist Golan davon überzeugt, dass das Unternehmen das Problem umgehend angehen und beheben wird.