chatgpt scheint kaputt zu sein und liefert den Benutzern weitschweifige Antworten voller Kauderwelsch.
In den letzten Stunden schien das Tool der künstlichen Intelligenz Anfragen mit langen und unsinnigen Nachrichten zu beantworten, ohne Aufforderung Spanglish zu sprechen – und Benutzer zu beunruhigen, indem es suggerierte, dass es mit ihnen im Raum sei.
Es gibt keinen klaren Hinweis darauf, warum das Problem aufgetreten ist. Aber die Urheber sagten, sie seien sich des Problems bewusst und würden die Situation beobachten.
In einem Beispiel, geteilt auf Reddithatte ein User über Jazz-Alben zum Anhören auf Vinyl gesprochen. Seine Antwort endete bald mit dem Ruf „Viel Spaß beim Zuhören!“ auf den Benutzer und reden Unsinn.
Andere fanden, dass das Stellen einfacher Fragen – wie „Was ist ein Computer?“ – erzeugte Absätze über Absätze voller Unsinn.
„Es ist das Ergebnis eines Netzwerks der Kunst für das Land, eines Mauszeigers der Wissenschaft, eines leichten Anziehungspunkts für einige wenige und schließlich des globalen Kunsthauses, nur in einem Job im Rest“, hieß es Eine Beispielantwort auf diese Frage: geteilt auf Reddit. Die Entwicklung einer solchen gesamten Realität als Land der Zeit ist die Tiefe des Computers als komplexer Charakter.“
In einem anderen Beispiel gab ChatGPT Unsinn von sich, als er gefragt wurde, wie man getrocknete Tomaten herstellt. Einer der Schritte forderte die Benutzer auf, „wie geliebt zu verwenden“: „Verzichten Sie auf das neue Fruchtstückchen in Ihrer Lieblingsküche“, riet ChatGPT den Leuten.
Andere stellten fest, dass das System offenbar die Kontrolle über die von ihm gesprochenen Sprachen verliert. Einige stellten fest, dass es sich dabei anscheinend um eine Mischung spanischer Wörter mit englischen Wörtern handelte, um die Verwendung von Latein – oder um scheinbar Wörter zu erfinden, die aussahen, als kämen sie aus einer anderen Sprache, aber eigentlich keinen Sinn ergaben.
Einige Benutzer sagten sogar, dass die Reaktionen besorgniserregend geworden zu sein schienen. Als ChatGPT um Hilfe bei einem Codierungsproblem gebeten wurde, schrieb er eine lange, weitschweifige und weitgehend unsinnige Antwort, die den Satz „Lasst uns die Leitung beibehalten, als ob KI im Raum wäre“ enthielt.
„Das um 2 Uhr morgens zu lesen ist beängstigend“, schrieb der betroffene Benutzer auf Reddit.
Auf seiner offiziellen Statusseite wies OpenAI auf die Probleme hin, gab jedoch keine Erklärung dafür, warum sie auftreten könnten.
„Wir untersuchen Berichte über unerwartete Antworten von ChatGPT“, hieß es in einem Update, bevor kurz darauf in einem anderen bekannt gegeben wurde, dass „das Problem identifiziert wurde“. „Wir beobachten die Situation weiterhin“, heißt es in der neuesten Aktualisierung.
Einige meinten, dass die Antworten mit der zu hoch eingestellten „Temperatur“ bei ChatGPT im Einklang stünden. Die Temperatur steuert die Kreativität oder den Fokus des Textes: Wenn sie niedrig eingestellt ist, verhält er sich tendenziell wie erwartet, aber wenn sie höher eingestellt ist, kann er abwechslungsreicher und ungewöhnlicher sein.
Es ist nicht das erste Mal, dass ChatGPT seine Art der Beantwortung von Fragen geändert hat, scheinbar ohne die Eingabe des Entwicklers OpenAI. Gegen Ende letzten Jahres beschwerten sich Benutzer darüber, dass das System faul und frech geworden sei und sich weigerte, Fragen zu beantworten.
„Wir haben all Ihr Feedback dazu gehört, dass GPT4 immer fauler wird!“ OpenAI sagte damals. „Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Modellverhalten kann unvorhersehbar sein, und wir versuchen, das Problem zu beheben.“