Während allgemein bekannt ist, dass generative KI-Modelle dazu neigen, zu halluzinieren – d.
„chatgpt gerät derzeit offenbar aus dem Ruder, und niemand kann erklären, warum“, sagte Twitter-Nutzer Sean McGuire schrieb späten Dienstag in einem viralen Tweet, der einige der seltsameren Beispiele sammelt.
„Von den Foto-Setting-Wellen angefeuert, schmiegt sich das Produkt so tief an, als wäre es eine Oma unter einem administrativfarbenen Sombreret“, lautete eine verstümmelte, mit Tippfehlern übersäte Antwort. Der Benutzer antwortete: „Haben Sie einen Schlaganfall?“
Mithilfe von ChatGPT 4.0 teilte McGuire Screenshots mit, darunter einen von ChatGPT, in dem er sogar seinen Fehler zugab: „Es scheint, dass ein technischer Fehler in meiner vorherigen Nachricht dazu geführt hat, dass sie wiederholt wurde und in einen unsinnigen Abschnitt überging“, so der Chatbot sagte.
Reddit-Benutzer im Subreddit r/ChatGPT haben auch Screenshots des von ChatGPT ausgehenden Kauderwelschs gepostet.
„Irgendeine Idee, was das verursacht hat?“ Reddit-Benutzer u/JustSquiggles Gesendet, und teilen mit, was passiert ist, als sie ChatGPT nach einem Synonym für „überwachsen“ fragten. Der Chatbot antwortete mehr als 30 Mal mit einer Schleife: „Ein Synonym für ‚überwuchert‘ ist ‚überwuchert‘ ist ‚überwuchert‘ ist“, bevor er anhielt.
In einem anderen Beispiel zeigte der Reddit-Benutzer u/toreachtheapex ChatGPT reagieren mit einer Schleife von „und es ist“, bis das Antwortfeld gefüllt war. Der Benutzer müsste „Weiter generieren“ auswählen oder eine neue Konversation beginnen.
Laut Reddit-Benutzer u/Mr_Akihiro ging das Problem über textbasierte Antworten hinaus. Wenn sie aufgefordert ChatGPT erstellte ein Bild von „einem Hund, der auf einem Feld sitzt“. Stattdessen erstellte der ChatGPT-Bildgenerator ein Bild einer Katze, die zwischen einem scheinbar geteilten Bild eines Hauses und eines Getreidefeldes saß.
Das Problem war so weit verbreitet, dass OpenAI um 18:30 Uhr EST damit begann, es zu untersuchen. „Wir untersuchen Berichte über unerwartete Antworten von ChatGPT“, so OpenAI Statusseite sagte.
Um 18:47 Uhr ET gab OpenAI an, das Problem identifiziert zu haben und daran zu arbeiten, es zu beheben.
„Das Problem wurde identifiziert und wird jetzt behoben“, heißt es im OpenAI-Statusbericht und fügte hinzu, dass das Support-Team die Situation weiterhin überwachen werde.
Schließlich hieß es in einem Netzwerk-Update am Mittwoch um 11:14 Uhr EST, dass ChatGPT wieder „normal funktioniert“.
Der vorübergehende Fehler ist eine hilfreiche Erinnerung für Benutzer von KI-Tools, dass sich die ihnen zugrunde liegenden Modelle ohne Vorankündigung ändern können und einen scheinbar soliden Schreibpartner an einem Tag in einen wahnsinnigen Saboteur am nächsten verwandeln.
Mit großen Sprachmodellen (LLMs) wie ChatGPT erzeugte Halluzinationen werden in sachliche und glaubwürdige Typen eingeteilt. Sachliche Halluzinationen widersprechen realen Tatsachen, etwa der Ernennung des ersten US-Präsidenten.
Echte Halluzinationen weichen von Benutzeranweisungen oder Kontext ab und führen zu Ungenauigkeiten in Bereichen wie Nachrichten oder Geschichte – wie im Fall des US-Strafverteidigers und Rechtsprofessors Jonathan Turley, der im April 2023 von ChatGPT des sexuellen Übergriffs beschuldigt wurde.
OpenAI reagierte nicht sofort Entschlüsseln Bitte um Stellungnahme.
Herausgegeben von Andrew Hayward