Vor 17 Uhr ist es dunkel, die Luft ist kalt und feucht, die Erkältung geht langsam in eine Nebenhöhlenentzündung über… Das ist die Zeit, die man im Allgemeinen wählt saisonale Depression sich selbst einladen. Dann schicken wir Ihnen schon jetzt jede Menge Kraft, natürliches Licht und Vitamin C. Aber seien Sie versichert, Sie sind nicht allein: chatgpt;elm:context_link;itc:0″ class=“link „>ChatGPTAuch , der von OpenAI entwickelte Konversationsroboter, könnte von dieser kleinen Winterflaute betroffen sein.
Abonnieren Sie kostenlos den täglichen korii-Newsletter. und verpassen Sie keinen Artikel. Ich abonniere
Glaubt man den Online-Medien Ars TechnicaEnde November bemerkten ChatGPT-Benutzer, dass ihr Lieblings-KI-Tool faul und sogar reizbar wurde. Vereinfachende Antworten, Verweigerung der Zusammenarbeit, forderte der Chatbot die Benutzer manchmal sogar auf, die Arbeit selbst zu erledigen. Durch den Vergleich der gegebenen Antworten im Mai und Dezemberstellt sich heraus, dass ChatGPT tatsächlich weniger gesprächig geworden wäre.
„Aufgrund der umfangreichen Natur der Daten würde es lange dauern, alle Elemente vollständig zu extrahieren“, antwortete er einem Benutzer, der dies teilte seine Missgeschicke auf Reddit. Allerdings kann ich die Datei mit diesem einzelnen Eintrag als Vorlage bereitstellen und Sie können die restlichen Daten nach Bedarf ergänzen.“
Anthropomorphismus oder Mimikry?
Wird ChatGPT wirklich faul oder ist es nur ein voreingenommenes Gefühl durch unsere Tendenz, dieses Tool zu vermenschlichen? OpenAI hat sich mit dem Problem befasst und hat diese Nachricht am 8. Dezember gepostet (ehemals Twitter): „Wir haben alle Ihre Kommentare darüber gehört, dass GPT-4 immer fauler wird! Wir haben das Modell seit dem 11. November nicht aktualisiert, was nicht beabsichtigt ist. Sein Verhalten kann unvorhersehbar sein und wir versuchen…