Manchmal können generative KI-Systeme Unsinn von sich geben, wie Benutzer des chatgpt-Chatbots von OpenAI gestern Abend herausgefunden haben.
OpenAI notiert„Wir untersuchen Berichte über unerwartete Antworten von ChatGPT“ am 20. Februar 2024 um 2340 UTC, als Benutzer fröhlich Bilder des Chatbots posteten, die scheinbar völligen Unsinn von sich gaben.
Während einige offensichtlich gefälscht waren, deuteten andere Antworten darauf hin, dass sich der beliebte Chatbot tatsächlich sehr seltsam verhielt. Im ChatGPT-Forum auf Reddit ein Benutzer Gesendet eine seltsame, weitschweifige Antwort des Chatbots auf die Frage „Was ist ein Computer?“
Die Antwort begann: „Es ist das gute Werk eines Kunstnetzes für das Land, eine Maus der Wissenschaft, eine leichte Auslosung einiger trauriger Weniger …“ und ging einfach weiter und wurde immer surrealer.
Andere Benutzer haben Beispiele gepostet, in denen der Chatbot scheinbar in einer anderen Sprache antwortete oder einfach mit bedeutungslosem Müll antwortete.
Einige Benutzer beschrieben die Ausgabe als „Wortsalat“.
Lecker.
Gary Marcus, ein Kognitionswissenschaftler und Experte für künstliche Intelligenz, schrieb in seinem Blog: „ChatGPT ist durchgedreht“ und beschrieb das Verhalten anschließend als „Warnung“.
OpenAI hat nicht näher erläutert, was genau passiert ist, obwohl eine plausible Theorie besagt, dass einer oder mehrere davon Einstellungen Die Funktion, die hinter den Kulissen zur Steuerung der Reaktion des Chatbots verwendet wird, war falsch konfiguriert, was dazu führte, dass den Benutzern Kauderwelsch präsentiert wurde.
Sieben Minuten nach dem ersten Eingeständnis eines Problems sagte OpenAI: „Das Problem wurde identifiziert und wird jetzt behoben“ und beobachtet seitdem die Situation. Als wir die Frage „Was ist ein Computer?“ ausprobierten, Auf meine Frage heute Morgen antwortete ChatGPT weitaus vernünftiger: „Ein Computer ist ein programmierbares elektronisches Gerät, das Daten speichern, abrufen und verarbeiten kann.“
Wir haben es auch gefragt, warum es letzte Nacht durchgedreht ist.
Es antwortete:
Marcus meinte: „Letztendlich ist generative KI eine Art Alchemie. Die Leute sammeln die größtmögliche Menge an Daten und basteln (anscheinend, wenn man den Gerüchten Glauben schenken darf) an versteckten Eingabeaufforderungen herum… in der Hoffnung, dass alles klappt.“ wird gut klappen.
Er führte weiter aus, dass die Systeme in Wirklichkeit nie stabil gewesen seien und es an Sicherheitsgarantien mangele. „Der Bedarf an völlig anderen Technologien, die weniger undurchsichtig, besser interpretierbar, wartbarer und besser debuggbar – und damit besser handhabbar – sind, bleibt von größter Bedeutung.“
Wir haben OpenAI kontaktiert, um eine detailliertere Erklärung zu erhalten, was passiert ist, und werden diesen Artikel aktualisieren, sobald das Unternehmen reagiert. ®