chatgpt scheint auf schwerwiegende technische Probleme zu stoßen, die dazu führen, dass es unsinnige Antworten auf Benutzeranfragen liefert.
Benutzer des Tools für künstliche Intelligenz (KI) haben in den letzten 12 Stunden eine Reihe von Problemen gemeldet, wobei einige berichteten, dass es als Antwort auf bestimmte Anfragen „Spanglish“ gesprochen habe.
„Seit etwa drei Stunden verschwinden alle meine Gespräche mit GPT4 sehr schnell im Müll“, berichtete ein Benutzer.
Es wurde auch aufgezeichnet, dass der Chatbot unaufgeforderte Antworten lieferte, die nach Ansicht einiger Benutzer „Kauderwelsch“ klangen und offenbar Sprachen verwechselten.
In einem Fall erhielt ein Benutzer, der einen Ratschlag zu einem codierungsbezogenen Problem eingab, eine langatmige, nahezu unverständliche Antwort, einschließlich des Satzes „Lassen Sie uns die Leitung beibehalten, als ob KI im Raum wäre“.
Die Probleme scheinen speziell GPT-4 zu betreffen, das leistungsstärkste Large Language Model (LLM) von OpenAI, das Benutzer bei der Verwendung von ChatGPT auswählen können.
OpenAI, das Unternehmen hinter ChatGPT, hat eine Erklärung herausgegeben, in der es die Benutzer darüber informiert, dass es sich der Situation bewusst ist und an der Behebung der Probleme arbeitet.
„Wir untersuchen Berichte über unerwartete Antworten von ChatGPT“, sagte das Unternehmen in einem Update. Auf der Statusseite von OpenAI wurde vermerkt, dass das Problem identifiziert wurde.
„Wir beobachten die Situation weiterhin“, heißt es in der neuesten Aktualisierung.
Was steckt hinter dem ChatGPT-Problem?
Die genaue Ursache des Problems muss von OpenAI noch ermittelt oder bestätigt werden, Benutzer haben jedoch dennoch über die möglichen Ursachen spekuliert.
Reddit-Benutzer stellten die Frage, ob die Ursache des Problems auf die temperaturbedingten Veränderungen zurückzuführen sei. Im Kontext bezieht sich „Temperatur“ in diesem Fall auf eine bestimmte Einstellung, die die Kreativität des Modells bestimmt.
OpenAI legt einen Bereich zwischen 0 und 2,0 fest. In den meisten Fällen wird der niedrigere Einstellungsbereich hauptsächlich für fokussierte und detaillierte Ausgaben verwendet, während der höhere Bereich der Skala darauf abzielt, kreative Reaktionen und zufällige Ergebnisse zu erzeugen.
„Über 1 macht es ziemlich unvorhersehbar, über 1,5 fast völlig instabil“, bemerkte ein Benutzer.
„In der Webversion von ChatGPT sind diese Einstellungen ausgeblendet und vorbestimmt, aber wenn Sie deren API verwenden, können Sie mit der Ausgabe experimentieren.“
ChatGPT-Halluzinationen sind nichts Neues
Halluzinationen sind ein relativ häufiges Phänomen, bei dem ein großes Sprachmodell (LLM) mit Sicherheit eine falsche Ausgabe liefert. Dies kann in der Form geschehen, dass ein Zitat bereitgestellt wird, das nicht existiert, oder in extremeren Fällen in einer Antwort auf eine Frage, die in völliges Kauderwelsch mündet.
Da KI-Entwickler fortschrittlichere Modelle erstellt haben, haben sie Modelle nach und nach darauf trainiert, weniger zu halluzinieren, oder auf andere Weise Modelle eingeschränkt, um nur unter bestimmten Bedingungen mehr ungewöhnliche Ergebnisse zu erzeugen, beispielsweise wenn ein Benutzer nach kreativeren Antworten fragt.
Chatbots können durch die Verwendung von Anweisungen auf Entwicklerebene eingeschränkt werden, was dazu führen kann, dass sie selbst auf Geheiß der Benutzer nicht mehr halluzinieren, sodass alle Antworten innerhalb des Verhaltenskodex bleiben. Aber bei allen Chatbots, einschließlich ChatGPT, besteht immer noch die Gefahr von Halluzinationen.
Es ist ein Problem, das jeder zu lösen versucht. Mit Halluzinationen sind Reputationsschäden verbunden, da OpenAI versprechen musste, dass GPT-3 „weniger toxisch“ sei, nachdem das Modell mit Fake News und diskriminierenden Ergebnissen in Verbindung gebracht wurde.
Auch google hat seine Besorgnis über Halluzinationen zum Ausdruck gebracht und war selbst Opfer einer sachlich falschen Antwort seines Bard-Chatbots bei seiner Keynote-Enthüllung, die dazu führte, dass die Google-Aktie um 7 % einbrach.
Eine zentrale Herausforderung für Entwickler besteht jedoch weiterhin darin, dass Halluzinationen im „generativen“ Aspekt der generativen KI verankert sind.
Alle Ergebnisse von LLMs basieren nur auf statistischen Modellen und die Einschränkung des Ausmaßes, in dem ein Modell Zufälligkeit in seine Antworten einbringen kann, könnte auch seine Fähigkeit, Ergebnisse wie Textentwürfe oder Bilder zu produzieren, erheblich beeinträchtigen.
Sam Altman, CEO von OpenAI, hat Halluzinationen als die „Magie“ der generativen KI beschrieben und bisher hat kein Unternehmen eine Architektur vorgeschlagen, die garantiert, dass Benutzer mit ihrem LLM immer die Antwort erhalten, die sie suchen.
Aus diesem Grund prüfen so viele IT-Führungskräfte sekundäre und tertiäre Kontrollen für KI-Systeme auf menschlicher und Softwareebene, um sicherzustellen, dass unerwünschte Ausgaben gekennzeichnet werden und ihrem Unternehmen niemals schaden.