Das beliebte chatgpt-System für künstliche Intelligenz (KI) von OpenAI erlebte zwischen dem 20. und 21. Februar einen öffentlichen Zusammenbruch, der dazu führte, dass es die Benutzer verwirrte und verwirrte, indem es Kauderwelsch und andere seltsame Dinge von sich gab, darunter unaufgefordert Pseudo-Shakespeare.
Mit Stand vom 21. Februar um 8:14 Uhr pazifischer Standardzeit ist das Problem offenbar gelöst. Das neueste Update auf der Statusseite von OpenAI zeigt an, dass „ChatGPT normal funktioniert“. Dies weist darauf hin, dass das Problem 18 Stunden nach der ersten Meldung durch OpenAI behoben wurde.
chatgpt gerät derzeit offenbar aus den Fugen und niemand kann erklären, warum pic.twitter.com/0XSSsTfLzP
Etwas in meiner Datendatei brachte ChatGPT in eine Spirale, die damit endete … wie Shakespeare zu sprechen? Man muss ihm zugute halten, dass es funktioniert hat…. #surcease pic.twitter.com/4wHxVzF0Pw
Es ist derzeit unklar, was genau das Problem verursacht hat, und OpenAI hat noch nicht auf unsere Bitte um Stellungnahme geantwortet.
Basierend auf einer oberflächlichen Untersuchung der gemeldeten Ergebnisse scheint es, als ob bei ChatGPT eine Art Tokenisierungsverwirrung aufgetreten wäre. Aufgrund des Black-Box-Charakters großer Sprachmodelle, die auf der GPT-Technologie basieren, ist es für Wissenschaftler bei OpenAI möglicherweise nicht möglich, genau zu diagnostizieren, was schief gelaufen ist. Wenn dies der Fall ist, wird sich das Team wahrscheinlich auf vorbeugende Maßnahmen konzentrieren, beispielsweise auf die Implementierung weiterer Schutzmaßnahmen gegen lange Reihen offensichtlichen Kauderwelschs.
Die Stimmung in den sozialen Medien scheint darauf hinzudeuten, dass der durch den Chatbot verursachte Schaden im Großen und Ganzen darauf beschränkt war, die Zeit der Benutzer zu verschwenden, die vernünftige Antworten auf Anfragen erwarteten.
Dieser Fall verdeutlicht jedoch das Potenzial generativer KI-Systeme, jederzeit unerwartete, halluzinierte oder inkonsistente Nachrichten zu senden. Solche unerwünschten Reaktionen können negative Folgen haben.
Air Canada zum Beispiel hat kürzlich herausgefunden, dass es dem Algorithmus keinen Vorwurf machen kann, als ein Gericht anordnete, einem Kunden, der von einem Kundenservice-Chatbot schlechte Informationen über die Buchungsrichtlinien erhalten hatte, eine teilweise Rückerstattung zu zahlen.
In der Welt der Kryptowährungen nutzen Anleger zunehmend automatisierte Systeme, die auf LLMs und GPT-Technologie basieren, um Portfolios zu erstellen und Geschäfte auszuführen. Wie der jüngste Ausfall von ChatGPT zeigt, kann es selbst bei den robustesten Modellen in jeder Größenordnung zu unerwarteten Ausfällen kommen.