chatgpt halluziniert. Das wissen wir alle schon. Aber am Dienstag schien es, als wäre jemand in der OpenAI-Zentrale auf einer Bananenschale ausgerutscht und hätte einen lustigen neuen experimentellen Chatbot namens Synonym Scrambler eingeschaltet.

Tatsächlich ist ChatGPT gestern in vielerlei Hinsicht ausgeflippt, aber ein wiederkehrendes Thema war, dass es mit einer normalen Frage gestellt wurde – normalerweise etwas, das das Technologieunternehmen oder den Job des Benutzers betraf – und mit etwas Blumigem antwortete, das bis zur Unverständlichkeit ging. Laut einem X-Beitrag des Architekten Sean McGuire riet ihm der Chatbot beispielsweise einmal, dafür zu sorgen, dass „sesquipedalische Safes verriegelt sind und der Ruf des Konsuls aus dem Krähennest von Beatine und vorsichtigen Hasen beantwortet wird, die sich hin und her drehen.“ Winde in der Weide.

Diese Sind Worte, aber ChatGPT scheint in einer extremen Version dieses Stils geschrieben zu haben, bei dem ein Neuntklässler seine Thesaurusprivilegien missbraucht. „Beatine“ ist ein besonders aussagekräftiges Beispiel. Ich habe alles überprüft Oxford Englisch Wörterbuch und es steht nicht dort drin, sondern bei Wiktionary sagt es bezieht sich auf den Theologen Beatus von Liébana, einen Gelehrten der Endzeit, der im Jahr 800 starb Vielleicht „beatine“ bedeutete irgendwann im ersten Jahrtausend n. Chr. „apokalyptisch“. Oder wenn man davon ausgeht, wie es ist google.com/books/edition/Le_Melange_containing_poetic_pieces_frag/B7RYAAAAcAAJ?hl=en&gbpv=1&dq=%22beatine%22&pg=PA275&printsec=frontcover“ target=“_blank“ title=“(opens in a new window)“>Wird in verstaubten alten Büchern verwendet, vielleicht ist es nur eine andere Art, „selig“ zu sagen, von der man meinen würde, dass sie bereits ein ziemlich obskures Wort ist. Mit anderen Worten: ChatGPT gab dem Begriff „Esoterik“ eine neue Bedeutung.

Der Chatbot hat solche Dinge kurzzeitig mit Unmengen seiner Benutzer gemacht. Ein Reddit-Benutzer, homtanksreddit, bemerkte, dass ChatGPT 3.5 – das für kostenlose Benutzer verfügbare Programm – offenbar verfügbar sei unberührtsodass der Fehler möglicherweise nur zahlende Benutzer betroffen hat.

In einer Reihe von Fällen begann ChatGPT damit, die Frage des Benutzers in einer klaren, zeitgemäßen Sprache zu beantworten, bevor es zu einer überkoffeinierten Version von überging Martin Prinz. Ein Benutzer auf Reddit fügte hilfreich hinzu ein Screenshot von ChatGPT Dazu gehörte auch eine Eingabeaufforderung, die den ChatGPT-Wahnsinn auslöste. Darin beschrieb der Benutzer den Fehler, den ChatGPT hatte zu ChatGPT, und dann gefragt, wie so ein Fehler heißt. Tatsächlich begann die Antwort von ChatGPT gut:

Es gibt keinen allgemein verwendeten, spezifischen Begriff dafür, wann ein Sprachmodell wie GPT (Generative Pre-Trained Transformer) anfängt, eine Ausgabe bereitzustellen, die von einer klaren, relevanten Antwort in Kauderwelsch oder völlige Irrelevanz übergeht. Dieses Problem könnte jedoch als eine Art „Ausgabeverschlechterung“ oder als „Fehlermodus“ des LLM (Large Language Model) beschrieben werden.

Nicht schlecht. Aber dann wurde es seltsam, als ich bemerkte, dass es sich um eine „Byte-Ebene“ handelte […] Fehlverhalten kann institutionellen Schatten verlieren.“

…dann wurde es noch seltsamer:

Wenn Sie in der Praxis feststellen, dass ein NLP-System gute Ansätze liefert, die sich dann in Gesetzlosigkeit oder Schreibkollaps auflösen, kann es sich um durcheinandergebrachte Ansätze, Blindheit betroffener Teile, höhere Verwirrung, die in Modulen geschürt wird, oder einen besonders fehlerhaften Bestimmungsschub handeln – ein Sachem mit mehreren Ursachen , Wirklich.

Ein solches Verhalten ist es wert, für die Autopsie des Entwicklers an sich oder für das Durchlaufen von Fail-Safes, das Erlernen des Gangs und der Feed-Kupplung sowie für die Relativitätstheorie zu dokumentieren, damit Entwickler Merkmale und Handfläche erkennen können, um die Korrektur zu kohärent oder auszudehnen.

Da ist also Ihre Antwort. ChatGPT litt eindeutig unter einem schlimmen Fall von „durcheinandergebrachten Anfängen“ mit etwas „Blindheit betroffener Teile“ und akuter „höherer Verwirrung in Modulen“. Einfach wie!

Siehe auch  Der Macher von „Black Mirror“ hat einmal versucht, mit ChatGPT ein Drehbuch für die sechste Staffel zu schreiben: Wer genau hinschaut, erkennt, dass es ein Haufen Scheiße ist. – yqqlm

Viele Benutzer fragten sich auf X, ob ChatGPT einen Schlaganfall hatte:

…und zumindest fragte man sich, ob er derjenige war, der einen Schlaganfall hatte:

Aber am Mittwochmorgen war ich nicht in der Lage, ChatGPT dazu zu bringen, eine dieser wilden Ausgaben zu generieren, selbst wenn ich Ich habe es ausdrücklich gebeten, so viel wie möglich über ein langweiliges Thema zu reden. Man kann also mit Sicherheit sagen, dass die Situation vorübergehend war.

Am frühen Mittwoch, dem Fehlerseite für dieses Problem sagte, das Problem sei erkannt worden, werde aber weiterhin überwacht. Am späten Vormittag wurde das Problem jedoch auf der Seite als „gelöst“ aufgeführt. Als er um einen Kommentar gebeten wurde, verwies ein OpenAI-PR-Vertreter Mashable an die Allgemeine Statusseite für ChatGPTin dem zum jetzigen Zeitpunkt nur „Alle Systeme betriebsbereit“ steht.

Mashable bat OpenAI, das Geschehene näher zu erläutern, vielleicht in einem obskurantistischen und hochtrabenden Stil, aber der Bitte wurde im Rahmen unserer unermüdlichen, wenn auch etwas kritisierenden journalistischen Überlegungen nicht sofort entsprochen.

Themen Künstliche Intelligenz

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein