Semafor-Signale

Einblicke von Ars Technica, Semafor und KI-Forschern an Stanford und UC Berkeley

NACHRICHT

chatgpt scheint im Dezember „fauler“ zu sein, und Benutzer fragen sich, ob das daran liegt, dass es gelernt hat, dass Menschen damals auch fauler sind. Ein Entwickler bemerkte, dass, wenn dem Modell mitgeteilt wird, dass es Dezember ist, seine Antworten sind 5 % kürzer als wenn gesagt wird, dass es Mai ist. Andere bemerkten, dass ChatGPT sich weigerte, Aufgaben nach Thanksgiving zu erledigen.

OpenAI hat die Beschwerden, dass ChatGPT auftaucht, zur Kenntnis genommen es anzurufen. „Das ist sicherlich keine Absicht. Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben“, schrieb das Unternehmen auf X.

SIGNALE

Semafor-Signale: Globale Einblicke in die größten Geschichten von heute.

Die seltsame Welt großer Sprachmodelle

Quellen: Ars Technica

Die „Winterpause-Hypothese“ ist nicht bewiesen, aber sie wäre nicht seltsamer als andere Aspekte der Psychologie des Bots. sozusagen: ChatGPT funktioniert definitiv besser, wenn man es sagt: „Hol erstmal Luft“ und dass du „keine Hände hast“. Die Tatsache, dass Das Problem der Winterpause ist eine realistische Möglichkeit „zeigt, wie seltsam die Welt der KI-Sprachmodelle geworden ist“, berichtete Ars Technica.

Wenn Lethargie Geld spart

Quellen: Louise Matsakis von Semafor

Die Trägheit von ChatGPT könnte letztendlich eine gute Nachricht für das Endergebnis von OpenAI sein. Louise Matsakis von Semafor schrieb. Die Ausführung fortgeschrittener Sprachmodelle ist aufgrund der erforderlichen Rechenleistung unglaublich teuer. Das Forschungsunternehmen SemiAnalysis schätzte im Februar, dass ChatGPT das Startup fast kosten würde 700.000 $ ein Tag. „Je ‚fauler‘ der Chatbot wird, desto mehr Geld spart OpenAI und desto geringer ist die Belastung für sein System“, schrieb Matsakis.

Siehe auch  Kostenlose ChatGPT-Eingabeaufforderung: Nutzen Sie unseren Social-Media-Post-Generator für Ihr Unternehmen

Du bist oben und du bist unten

Quellen: KI-Forscher der Stanford University und der UC Berkeley

Der offensichtliche Winterblues von ChatGPT ist nur der jüngste Vorfall, bei dem sich die Ausgabe großer Sprachmodelle ohne ersichtlichen Grund geändert hat. Die Kapazitäten von GPT-3.5 und GPT-4 haben sich erheblich geändert über einen Zeitraum von drei Monaten, in dem KI-Forscher der Stanford University und der UC Berkeley ihre Leistungen überwachten. Einige Experten vermuten, dass die Leistungsveränderung darauf zurückzuführen ist routinemäßige Feinabstimmung mit größeren als erwarteten Auswirkungen auf die Ergebnisse von LLMs. Die ungleichmäßige Leistung von ChatGPT hat „große Auswirkungen“ für Unternehmen, die verbraucherorientierte KI-Produkte entwickeln möchten, schrieb Arvind Narayanan, Informatikprofessor an der Princeton University, auf X.

5/5 - (414 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein