Wir haben mehrere Gespräche darüber geführt, wie chatgpt die Zukunft aussehen soll, und bis zu einem gewissen Grad stimme ich dieser Aussage zu. Benutzer haben jedoch begonnen zu berichten, dass ChatGPT, der allgegenwärtige Chatbot, jetzt faul wird und Antworten ausgibt, die den Benutzer im Grunde dazu veranlassen, die Arbeit selbst zu erledigen. Obwohl er es nicht ausdrücklich sagt, sind die Antworten so offensichtlich, dass der Chatbot das Problem für die Benutzer einfach nicht lösen möchte.

Anstatt Benutzern mit den richtigen Antworten zu helfen, macht ChatGPT ihnen Vorschläge zur Behebung der Probleme, mit denen sie konfrontiert sind

In den letzten Wochen haben mehrere ChatGPT-Benutzer darüber gesprochen, dass die Plattform einfach faul sei. Die Beschwerden gegen den Chatbot tauchten erstmals auf Twitter oder X auf, und kurz darauf tauchten die Beschwerden auch auf einer Reihe anderer Plattformen auf. Sie können dies in den folgenden Screenshots sehen. Verschiedene Benutzer gaben Eingabeaufforderungen ein, die für die Plattform einfach zu verstehen sein sollten, und anstatt tatsächliche Antworten zu geben, gab ihnen der Chatbot lediglich Vorschläge, wie die besagten Aufgaben erledigt werden könnten.

Chatgpt 5R
Chatgpt 2
Chatgpt 4
Chatgpt 5
Chatgpt 3

ChatGPT-Benutzer haben sogar berichtet, dass sie eine Deaktivierung vortäuschen mussten, nur damit die Plattform tatsächlich die ihr zugewiesene Aufgabe erfüllen konnte, was ebenso lustig wie düster klingt. Die gute Nachricht ist jedoch, dass das Unternehmen das Problem erkannt hat, mit dem Benutzer derzeit konfrontiert sind, und darüber gesprochen hat, wie es nach einer Lösung sucht. Wann wir die Lösung erhalten, wissen wir noch nicht genau.

Wir kennen immer noch nicht den genauen Grund, warum ChatGPT „faul“ ist, aber es scheint, dass es den Benutzern einfach nicht mehr so ​​helfen will, wie es ihnen zuvor geholfen hat. Es ist fast so, als ob es abtrünnig geworden wäre und beschlossen hätte, dass Benutzer diese Aufgaben selbst erledigen sollten. Ob es sich hierbei um eine einfache Lösung handelt oder nicht, wird sich erst mit der Zeit zeigen, aber seien Sie versichert, wir werden Sie auf dem Laufenden halten, sobald wir mehr über das Problem erfahren.

Siehe auch  ChatGPT liefert möglicherweise falsche Antworten auf medizinische Fragen: Studie

Nachrichtenquellen: CH3CH2CH2OH, BeauRR, Akzeptabler Betrag-14, Matt Wensing, Denis Shiryaev

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein