Wenn Sie ein ChatGPT-Benutzer sind, sind Ihnen viele bedeutungslose, verstümmelte Zeichen darin begegnet? OpenAI gab zu, dass der Chatbot einen Fehler hatte und hat die Antwortprobleme behoben.
ChatGPT-Benutzer haben kürzlich berichtet, dass der Chatbot seltsame Reaktionen zeigt, darunter das willkürliche Wechseln zwischen verschiedenen Sprachen, das Hängenbleiben in einer Antwortschleife und sogar wiederholte Selbstkorrekturen. Einige Antworten sind reines Kauderwelsch oder bedeutungslose, verstümmelte Zeichen, die überhaupt nicht erklärt werden können.
▲ ChatGPT antwortet Benutzern mit bedeutungslosen, verstümmelten Zeichen. (Quelle: Screenshot von Science and Technology News)
Ausländische Medien stellten fest, dass OpenAI um 22:40 Uhr Eastern Time auf seiner Betriebsstatusseite anzeigte, dass es Fehlerberichte von ChatGPT untersuche. Später zeigte sich, dass das Problem entdeckt worden war und intensiv an der Behebung gearbeitet wurde und die Überwachung fortgesetzt werden würde Verwendung.
Chatbots, die generative KI anwenden, sind eine sich schnell entwickelnde Technologie, und was noch wichtiger ist: Die großen Sprachmodelle, die ihnen zugrunde liegen, sind im Wesentlichen eine Blackbox, die selbst die Entwickler, die die Chatbots erstellen, nicht vollständig und in äußerst detaillierter Weise verstehen können. Chatbots funktionieren, indem sie nach Mustern in den Daten suchen und dann ihre besten Vermutungen anstellen, wie sie auf Fragen antworten sollen, oft mit beeindruckenden Ergebnissen, aber manchmal auch zu Halluzinationen, der Manipulation von Emotionen oder sogar zu Faulheit und der Verweigerung einer Antwort.
(Quelle des ersten Bildes:Unsplash)
Neue wissenschaftliche und technologische Erkenntnisse, die von Zeit zu Zeit aktualisiert werden