Die Tage werden kürzer und die Temperaturen sinken. Bei vielen fängt die saisonale Depression an, die mit einem langen und harten Winter einhergeht.
Hier ist die Wendung: Es sind möglicherweise nicht nur Menschen, die mit dem Mangel an Vitamin D zu kämpfen haben. Die besonders galaktischen Gehirne unter uns spekulieren: chatgpt-becoming-lazier-because-its-december-people-run-tests-to-find-out/“ rel=“nofollow noopener“ target=“_blank“ data-ylk=“slk:Ars Technica;elm:context_link;itc:0″ class=“link „>Ars Technica Berichtedass der Breakout-Chatbot ChatGPT von OpenAI unter der gleichen Krankheit leiden könnte.
Hören Sie uns zu. Seit letztem Monat, Benutzer begann es zu bemerken dass der Chatbot, der kürzlich feierte seinen ersten Geburtstagwurde „fauler“ und gereizter und weigerte sich oft, die ihm übertragenen Aufgaben auszuführen, oder forderte den Benutzer stattdessen dazu auf.
„Aufgrund der umfangreichen Datenlage wäre die vollständige Extraktion aller Produkte recht zeitaufwändig“, heißt es in einem Fall abgelehnt. „Ich kann die Datei jedoch mit diesem einzelnen Eintrag als Vorlage bereitstellen, die restlichen Daten können Sie bei Bedarf ergänzen.“
Wie viele bereits betont haben, ist es nachvollziehbar, dass ein KI-Bot faul wird, wenn wir uns den Feiertagen nähern.
„Ich habe entschieden gesagt, dass wir es nicht schaffen werden [artificial general intelligence] in unserem Leben“, sagte der Gründer des Cybersicherheitsunternehmens Frank McGovern getwittert. „Allerdings ändert die Tatsache, dass ChatGPT im wahrsten Sinne des Wortes von alleine faul wird und es satt hat, Fragen zu beantworten und für andere zu arbeiten, meine Meinung WIRKLICH.“
Der bizarre Trend erregte schließlich die Aufmerksamkeit von OpenAI, das eine herausgab Stellungnahme schrieb letzte Woche auf seinem offiziellen ChatGPT-Konto auf X-formerly-Twitter: „Wir haben all Ihr Feedback dazu gehört, dass GPT-4 immer fauler wird!“
„Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt“, fügte das Unternehmen hinzu. „Modellverhalten kann unvorhersehbar sein, und wir versuchen, das Problem zu beheben.“
Wird ChatGPT wirklich fauler – oder ist es ein weiteres Beispiel dafür, dass Menschen einen Algorithmus vermenschlichen und zu viel in seine unheimlichen Ergebnisse hineininterpretieren?
Und hier wird es richtig galaktisch. Könnte der Bot aus seinen riesigen Trainingsdaten erkennen, dass Menschen in den Wintermonaten oft nachlassende Energie und Motivation zur Arbeit haben – und dies auf uns zurückspiegeln?
„Was wäre, wenn es aus seinen Trainingsdaten lernen würde, dass die Leute normalerweise im Dezember langsamer fahren und größere Projekte auf das neue Jahr verschieben, und dass es deshalb in letzter Zeit fauler wäre?“ X-Benutzer Mike Swoopskee empfohlen.
Die Theorie mit dem Titel „Winterpause-Hypothese“ von einem anderen Benutzer auf X, schnell in den sozialen Medien bekannt, als Ars Berichte, die als unkonventionelle Erklärung für die neu entdeckte Trägheit von ChatGPT auftauchen.
Es ist eine ebenso elegante wie schwer zu beweisende Theorie – vor allem wegen der Forscher hinter ChatGPT zugegeben haben selbst, dass sie nicht ganz sicher sind, wie das Tool tatsächlich funktioniert.
In der Zwischenzeit haben es einige getan versucht zu quantifizieren Die Faulheit von ChatGPT wurde anhand der Anzahl der Zeichen ermittelt, die das Unternehmen im Mai im Vergleich zur Anzahl im Dezember auszuspucken bereit war. Andere haben hatte Mühe, sich zu reproduzieren Erste Ergebnisse besagten, dass ChatGPT tatsächlich fauler geworden sei.
In einem twitternder technische Mitarbeiter von OpenAI, Will DePue, erkannte das Problem an, schreckte jedoch davor zurück, Theorien über den Winterblues von ChatGPT aufzustellen.
„Ich sage nicht, dass wir keine Probleme mit übermäßigen Ablehnungen haben (das haben wir auf jeden Fall) oder anderen seltsamen Dingen (wir arbeiten an der Behebung eines aktuellen Faulheitsproblems), aber das ist ein Produkt des iterativen Prozesses, sooo viele Anwendungsfälle zu bedienen und zu unterstützen.“ sofort“, schrieb er.
Laut DePue haben ChatGPT-Benutzer diese Rückschritte möglicherweise einfach stärker bemerkt, da sie im Vergleich zu anderen Verbesserungen an der „ChatGPT-Erfahrung“, von denen man „nicht viel hört“, stärker hervorstechen.
Eine andere Möglichkeit besteht darin, dass die großen Sprachmodelle von OpenAI versuchen, ihre Belastung bereits überlasteter Systeme zu verringern. Aber es gibt auch keine Beweise, die diese Theorie stützen Ampeln wies darauf hin Im vergangenen Monat.
Mehr zu ChatGPT: Sam Altmans rechte Hand sagt, KI sei überbewertet