Wir haben mehrere Gespräche darüber geführt, wie chatgpt die Zukunft aussehen soll, und bis zu einem gewissen Grad stimme ich dieser Aussage zu. Benutzer haben jedoch begonnen zu berichten, dass ChatGPT, der allgegenwärtige Chatbot, jetzt faul wird und Antworten ausgibt, die den Benutzer im Grunde dazu veranlassen, die Arbeit selbst zu erledigen. Obwohl er es nicht ausdrücklich sagt, sind die Antworten so offensichtlich, dass der Chatbot das Problem für die Benutzer einfach nicht lösen möchte.
Anstatt Benutzern mit den richtigen Antworten zu helfen, macht ChatGPT ihnen Vorschläge zur Behebung der Probleme, mit denen sie konfrontiert sind
In den letzten Wochen haben mehrere ChatGPT-Benutzer darüber gesprochen, dass die Plattform einfach faul sei. Die Beschwerden gegen den Chatbot tauchten erstmals auf Twitter oder X auf, und kurz darauf tauchten die Beschwerden auch auf einer Reihe anderer Plattformen auf. Sie können dies in den folgenden Screenshots sehen. Verschiedene Benutzer gaben Eingabeaufforderungen ein, die für die Plattform einfach zu verstehen sein sollten, und anstatt tatsächliche Antworten zu geben, gab ihnen der Chatbot lediglich Vorschläge, wie die besagten Aufgaben erledigt werden könnten.
ChatGPT-Benutzer haben sogar berichtet, dass sie eine Deaktivierung vortäuschen mussten, nur damit die Plattform tatsächlich die ihr zugewiesene Aufgabe erfüllen konnte, was ebenso lustig wie düster klingt. Die gute Nachricht ist jedoch, dass das Unternehmen das Problem erkannt hat, mit dem Benutzer derzeit konfrontiert sind, und darüber gesprochen hat, wie es nach einer Lösung sucht. Wann wir die Lösung erhalten, wissen wir noch nicht genau.
Wir haben Ihr Feedback dazu gehört, dass GPT4 immer fauler wird! Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben 🫡
– ChatGPT (@ChatGPTapp) 8. Dezember 2023
Wir kennen immer noch nicht den genauen Grund, warum ChatGPT „faul“ ist, aber es scheint, dass es den Benutzern einfach nicht mehr so helfen will, wie es ihnen zuvor geholfen hat. Es ist fast so, als ob es abtrünnig geworden wäre und beschlossen hätte, dass Benutzer diese Aufgaben selbst erledigen sollten. Ob es sich hierbei um eine einfache Lösung handelt oder nicht, wird sich erst mit der Zeit zeigen, aber seien Sie versichert, wir werden Sie auf dem Laufenden halten, sobald wir mehr über das Problem erfahren.
Nachrichtenquellen: CH3CH2CH2OH, BeauRR, Akzeptabler Betrag-14, Matt Wensing, Denis Shiryaev