chatgpt-Benutzer berichten, dass der Chatbot in den letzten Tagen scheinbar faul geworden ist. OpenAI hat dies erkannt, ohne vorerst eine Erklärung abzugeben. Eine Theorie besagt, dass das Modell den Menschen imitiert, indem es eine gewisse Winterfaulheit zeigt.
In den letzten Tagen haben immer mehr Benutzer der neuesten Version von ChatGPT, die auf dem GPT-4 LLM von OpenAI basiert, ihre Unzufriedenheit darüber zum Ausdruck gebracht, dass der Chatbot ihren Anfragen nicht nachkommt, berichtet insbesondere die auf Ars Technica spezialisierte Website. Andere Internetnutzer kritisierten den Konversationsagenten dafür, dass er nicht mehr das gleiche Interesse an ihren Fragen zeige wie zuvor. Als Reaktion und auf scheinbar überraschende Weise erkannte OpenAI auf X, dass sein Modell „faul“ geworden war. Und ich möchte hinzufügen, dass diese Entwicklung sicherlich nicht beabsichtigt war. „Das Verhalten des Modells kann unvorhersehbar sein, und wir versuchen, dies zu korrigieren“, fügte das Unternehmen hinzu.
Wir haben Ihr Feedback dazu gehört, dass GPT4 immer fauler wird! Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben 🫡
– ChatGPT (@ChatGPTapp) 8. Dezember 2023
Am Ende des Jahres.
Da die Schnittstelle von ChatGPT dem Roboter das aktuelle Datum liefert, begannen einige zu glauben, dass die Idee sinnvoll sein könnte, fügt Ars Technica hinzu. Ein Entwickler namens Rob Lynch wollte es genau herausfinden. An . Statistisch signifikante Ergebnisse, so der Entwickler.
Dennoch wäre es voreilig, zu einer endgültigen Erklärung zu kommen. Es sei auch möglich, dass ChatGPT bei einigen Antworten schon immer „faul“ gewesen sei, aber aktuelle Berichte hätten auf dieses Phänomen aufmerksam gemacht, stellt Ars Technica fest.