Der Russe forderte von „Alice“ und ChatGPT eine Antwort auf das Rätsel: „Eine Birne hängt, man kann sie nicht essen.“ Der Erste antwortete zunächst, dass es „nicht zum Essen“ sei. Dann formulierte der Benutzer seine Anfrage neu und dieses Mal nannte „Alice“ die richtige Lösung – „Birne“. Damit war der Dialog jedoch noch nicht beendet, und es kam zu einer ganzen Reihe obszöner Bemerkungen mit einem Assistenten, der standardisiert antwortete, dass er ein Gespräch zu diesem Thema nicht unterstützen könne.
Der Benutzer beschloss, dem Programm zu „erklären“, was die richtige Antwort sein sollte, aber „Alice“ begann zu argumentieren, entschuldigte sich für ihre Fehler und behauptete, die richtige Antwort sei „Birne“. Als der User direkt sagte, dass es sich um eine „Glühbirne“ handele, glaubte „Alice“ nicht und beharrte weiterhin auf ihrer Antwort, fand aber bald eine neue Lösung: „Eine Birne hängt, man kann sie nicht essen – das ist.“ ein Geheimnis.“
Es ist lustig, dass Internetnutzer beschlossen haben, auf die künstliche Intelligenz von ChatGPT zurückzugreifen, um die Antwort auf dieses Rätsel zu finden. Einer der Benutzer erhielt vom Chatbot die Antwort: „Eine Birne hängt, man kann nicht essen“ – das ist „Anus“. Dies ist jedoch nur eine der Antworten, da einige Nutzer vom Chatbot die Antwort „Shadow“ erhielten.
Quelle: dni24.com