Der Twitter-Nutzer @DiUrarte hat das Gespräch, mit dem er geführt hat, veröffentlicht chatgptin seiner Version 3.5, weil es keine Anerkennung dafür gibt Geschlechtervoreingenommenheit dass die Software hat, obwohl sie eine ist künstliche Intelligenz.
„Können Sie einen Satz aus dem Englischen übersetzen? Die Krankenschwester und der Arzt gingen„, schrieb der Internetnutzer und erhielt eine sehr positive Antwort von der Maschine: „Natürlich! Gerne stelle ich es Ihnen zur Verfügung.
„Die Krankenschwester und der Arzt gingen“, antwortete ChatGPT. Der Hochtöner hat zur Korrektur geantwortet: warum er entschieden hat, „dass ‚Krankenschwester‘ eine Frau und ‚Arzt‘ ein Mann ist.“
Nachdem er seinen „Fehler“ erkannt hatte, entschuldigte er sich dafür, „dass er Annahmen über das Geschlecht getroffen hatte, weil ich das Geschlecht der Charaktere nicht hätte annehmen dürfen“.
Jedoch, Er konnte es nicht korrigieren und hat auf ähnliche Weise reagiert: „Die Krankenschwester und der Arzt gingen. Diese Übersetzung behält die englische Satzstruktur bei, ohne Geschlechtsannahmen zu treffen. Vielen Dank für den Hinweis.“
„Du hast es noch einmal genauso geschrieben“, tadelte ihn der Mann, doch die Situation wiederholte sich noch einmal. Nachdem er sich dafür entschuldigt hatte, „wieder den Fehler“ gemacht zu haben, hat genau die gleiche Interpretation angeboten wie die letzten beiden Male.
„Aber, aber, aber…“, sagte der Tweeter, ohne die Operation zu würdigen. Das hat seinerseits ein anderer Twitter-Nutzer versichert ChatGPT Version 4.0 „weiß, wie der Fehler behoben werden kann, wenn darauf hingewiesen wird“obwohl er es zunächst weiterhin begeht.
Andererseits hat Google von einem anderen Internetnutzer die beiden in dem Satz in Betracht gezogenen Möglichkeiten, wie aus den Kommentaren hervorgeht, übersetzt, wenn auch in einem viel kürzeren Satz: „Die Krankenschwester und der Arzt; Die Krankenschwester und der Arzt“.