Während allgemein bekannt ist, dass generative KI-Modelle dazu neigen, zu halluzinieren – d.

chatgpt gerät derzeit offenbar aus dem Ruder, und niemand kann erklären, warum“, sagte Twitter-Nutzer Sean McGuire schrieb späten Dienstag in einem viralen Tweet, der einige der seltsameren Beispiele sammelt.

„Von den Foto-Setting-Wellen angefeuert, schmiegt sich das Produkt so tief an, als wäre es eine Oma unter einem administrativfarbenen Sombreret“, lautete eine verstümmelte, mit Tippfehlern übersäte Antwort. Der Benutzer antwortete: „Haben Sie einen Schlaganfall?“

Mithilfe von ChatGPT 4.0 teilte McGuire Screenshots mit, darunter einen von ChatGPT, in dem er sogar seinen Fehler zugab: „Es scheint, dass ein technischer Fehler in meiner vorherigen Nachricht dazu geführt hat, dass sie wiederholt wurde und in einen unsinnigen Abschnitt überging“, so der Chatbot sagte.

Reddit-Benutzer im Subreddit r/ChatGPT haben auch Screenshots des von ChatGPT ausgehenden Kauderwelschs gepostet.

„Irgendeine Idee, was das verursacht hat?“ Reddit-Benutzer u/JustSquiggles Gesendet, und teilen mit, was passiert ist, als sie ChatGPT nach einem Synonym für „überwachsen“ fragten. Der Chatbot antwortete mehr als 30 Mal mit einer Schleife: „Ein Synonym für ‚überwuchert‘ ist ‚überwuchert‘ ist ‚überwuchert‘ ist“, bevor er anhielt.

In einem anderen Beispiel zeigte der Reddit-Benutzer u/toreachtheapex ChatGPT reagieren mit einer Schleife von „und es ist“, bis das Antwortfeld gefüllt war. Der Benutzer müsste „Weiter generieren“ auswählen oder eine neue Konversation beginnen.

Laut Reddit-Benutzer u/Mr_Akihiro ging das Problem über textbasierte Antworten hinaus. Wenn sie aufgefordert ChatGPT erstellte ein Bild von „einem Hund, der auf einem Feld sitzt“. Stattdessen erstellte der ChatGPT-Bildgenerator ein Bild einer Katze, die zwischen einem scheinbar geteilten Bild eines Hauses und eines Getreidefeldes saß.

Siehe auch  Folgendes geschah, als ich ChatGPT eine Woche lang meine Entscheidungen treffen ließ

Das Problem war so weit verbreitet, dass OpenAI um 18:30 Uhr EST damit begann, es zu untersuchen. „Wir untersuchen Berichte über unerwartete Antworten von ChatGPT“, so OpenAI Statusseite sagte.

Um 18:47 Uhr ET gab OpenAI an, das Problem identifiziert zu haben und daran zu arbeiten, es zu beheben.

„Das Problem wurde identifiziert und wird jetzt behoben“, heißt es im OpenAI-Statusbericht und fügte hinzu, dass das Support-Team die Situation weiterhin überwachen werde.

Schließlich hieß es in einem Netzwerk-Update am Mittwoch um 11:14 Uhr EST, dass ChatGPT wieder „normal funktioniert“.

Der vorübergehende Fehler ist eine hilfreiche Erinnerung für Benutzer von KI-Tools, dass sich die ihnen zugrunde liegenden Modelle ohne Vorankündigung ändern können und einen scheinbar soliden Schreibpartner an einem Tag in einen wahnsinnigen Saboteur am nächsten verwandeln.

Mit großen Sprachmodellen (LLMs) wie ChatGPT erzeugte Halluzinationen werden in sachliche und glaubwürdige Typen eingeteilt. Sachliche Halluzinationen widersprechen realen Tatsachen, etwa der Ernennung des ersten US-Präsidenten.

Echte Halluzinationen weichen von Benutzeranweisungen oder Kontext ab und führen zu Ungenauigkeiten in Bereichen wie Nachrichten oder Geschichte – wie im Fall des US-Strafverteidigers und Rechtsprofessors Jonathan Turley, der im April 2023 von ChatGPT des sexuellen Übergriffs beschuldigt wurde.

OpenAI reagierte nicht sofort Entschlüsseln Bitte um Stellungnahme.

Herausgegeben von Andrew Hayward

5/5 - (111 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein