Semafor-Signale
Einblicke von Ars Technica, Semafor und KI-Forschern an Stanford und UC Berkeley
NACHRICHT
chatgpt scheint im Dezember „fauler“ zu sein, und Benutzer fragen sich, ob das daran liegt, dass es gelernt hat, dass Menschen damals auch fauler sind. Ein Entwickler bemerkte, dass, wenn dem Modell mitgeteilt wird, dass es Dezember ist, seine Antworten sind 5 % kürzer als wenn gesagt wird, dass es Mai ist. Andere bemerkten, dass ChatGPT sich weigerte, Aufgaben nach Thanksgiving zu erledigen.
OpenAI hat die Beschwerden, dass ChatGPT auftaucht, zur Kenntnis genommen es anzurufen. „Das ist sicherlich keine Absicht. Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben“, schrieb das Unternehmen auf X.
SIGNALE
Die seltsame Welt großer Sprachmodelle
Die „Winterpause-Hypothese“ ist nicht bewiesen, aber sie wäre nicht seltsamer als andere Aspekte der Psychologie des Bots. sozusagen: ChatGPT funktioniert definitiv besser, wenn man es sagt: „Hol erstmal Luft“ und dass du „keine Hände hast“. Die Tatsache, dass Das Problem der Winterpause ist eine realistische Möglichkeit „zeigt, wie seltsam die Welt der KI-Sprachmodelle geworden ist“, berichtete Ars Technica.
Wenn Lethargie Geld spart
Die Trägheit von ChatGPT könnte letztendlich eine gute Nachricht für das Endergebnis von OpenAI sein. Louise Matsakis von Semafor schrieb. Die Ausführung fortgeschrittener Sprachmodelle ist aufgrund der erforderlichen Rechenleistung unglaublich teuer. Das Forschungsunternehmen SemiAnalysis schätzte im Februar, dass ChatGPT das Startup fast kosten würde 700.000 $ ein Tag. „Je ‚fauler‘ der Chatbot wird, desto mehr Geld spart OpenAI und desto geringer ist die Belastung für sein System“, schrieb Matsakis.
Du bist oben und du bist unten
Der offensichtliche Winterblues von ChatGPT ist nur der jüngste Vorfall, bei dem sich die Ausgabe großer Sprachmodelle ohne ersichtlichen Grund geändert hat. Die Kapazitäten von GPT-3.5 und GPT-4 haben sich erheblich geändert über einen Zeitraum von drei Monaten, in dem KI-Forscher der Stanford University und der UC Berkeley ihre Leistungen überwachten. Einige Experten vermuten, dass die Leistungsveränderung darauf zurückzuführen ist routinemäßige Feinabstimmung mit größeren als erwarteten Auswirkungen auf die Ergebnisse von LLMs. Die ungleichmäßige Leistung von ChatGPT hat „große Auswirkungen“ für Unternehmen, die verbraucherorientierte KI-Produkte entwickeln möchten, schrieb Arvind Narayanan, Informatikprofessor an der Princeton University, auf X.