Die weltweit beliebteste generative künstliche Intelligenz (KI) wird mit Einbruch des Winters „faul“ – so die Behauptung einiger kluger chatgpt-Benutzer.

Laut einer aktuellen ArsTechnica Bericht Ende November bemerkten Benutzer von ChatGPT, dem KI-Chatbot, der auf dem natürlichen Sprachmodell GPT-4 von OpenAI basiert, etwas Seltsames. Als Reaktion auf bestimmte Anfragen weigerte sich GPT-4, Aufgaben zu erledigen oder lieferte vereinfachte „faule“ Antworten anstelle der normalerweise detaillierten Antworten.

OpenAI anerkannt das Problem, behauptete aber, dass sie das Modell nicht absichtlich aktualisiert hätten. Einige spekulieren nun, dass diese Faulheit eine unbeabsichtigte Folge davon sein könnte, dass GPT-4 saisonale menschliche Verhaltensänderungen nachahmt.

Synchronisiert Die „Winterpause-Hypothese“ besagt, dass GPT-4, weil es mit dem aktuellen Datum gefüttert wird, aus seinen umfangreichen Trainingsdaten gelernt hat, dass Menschen dazu neigen, große Projekte abzuschließen und im Dezember langsamer zu werden. Forscher untersuchen dringend, ob diese scheinbar absurde Idee Bestand hat. Die Tatsache, dass es ernst genommen wird, unterstreicht die unvorhersehbare und menschenähnliche Natur großer Sprachmodelle (LLMs) wie GPT-4.

Am 24. November ein Reddit-Benutzer gemeldet GPT-4 wurde aufgefordert, eine große CSV-Datei zu füllen, es wurde jedoch nur ein Eintrag als Vorlage bereitgestellt. Am 1. Dezember wird OpenAIs Will Depue bestätigt Bewusstsein für „Faulheitsprobleme“ im Zusammenhang mit „Überverweigerungen“ und Engagement für deren Behebung.

Einige argumentieren, dass GPT-4 immer sporadisch „faul“ war und dass jüngste Beobachtungen lediglich eine Bestätigungsverzerrung darstellen. Der Zeitpunkt, zu dem Benutzer nach dem Update auf GPT-4 Turbo vom 11. November weitere Ablehnungen bemerken, ist jedoch interessant, wenn auch eher zufällig vermutet Es war eine neue Methode für OpenAI, Rechenaufwand zu sparen.

Siehe auch  Google kündigt ChatGPT-Rivalen Gemini an: Eine unglaublich fortschrittliche künstliche Intelligenz

Unterhalten Sie sich mit der „Winterpause“-Theorie

Am 9. Dezember stellte Entwickler Rob Lynch fest, dass GPT-4 bei einer Eingabeaufforderung für ein Dezember-Datum 4.086 Zeichen generierte, im Vergleich zu 4.298 für ein Mai-Datum. Obwohl der KI-Forscher Ian Arawjo die Ergebnisse von Lynch nicht in statistisch signifikantem Maße reproduzieren konnte, macht die subjektive Natur der Stichprobenverzerrung bei LLMs die Reproduzierbarkeit notorisch schwierig. Während die Forscher sich mit der Untersuchung beeilen, fasziniert die Theorie die KI-Gemeinschaft weiterhin.

Geoffrey Litt von Anthropic, der Schöpfer von Claude, nannte es „die lustigste Theorie aller Zeiten“, gab jedoch zu, dass es angesichts der seltsamen Art und Weise, wie LLMs auf menschliche Aufforderungen und Ermutigungen reagieren, schwierig auszuschließen ist, wie sich an den immer seltsamer werdenden Theorien zeigt Aufforderungen. Untersuchungen zeigen beispielsweise, dass GPT-Modelle bessere Ergebnisse in Mathematik erzielen, wenn sie aufgefordert werden, „tief durchzuatmen“, während das Versprechen eines „Trinkgeldes“ die Abschlüsse verlängert. Aufgrund der mangelnden Transparenz über mögliche Änderungen an GPT-4 lohnt es sich, selbst unwahrscheinliche Theorien zu untersuchen.

Diese Episode zeigt die Unvorhersehbarkeit großer Sprachmodelle und die neuen Methoden, die erforderlich sind, um ihre immer neuen Fähigkeiten und Einschränkungen zu verstehen. Es zeigt auch die globale Zusammenarbeit, die derzeit stattfindet, um KI-Fortschritte, die sich auf die Gesellschaft auswirken, dringend zu bewerten. Abschließend möchte ich daran erinnern, dass die heutigen LLMs immer noch einer umfassenden Überwachung und Prüfung bedürfen, bevor sie verantwortungsvoll in realen Anwendungen eingesetzt werden können.

Die „Winterpause-Hypothese“, die hinter der offensichtlichen saisonalen Faulheit von GPT-4 steckt, könnte sich als falsch erweisen oder neue Erkenntnisse liefern, die zukünftige Iterationen verbessern. In jedem Fall veranschaulicht dieser merkwürdige Fall die seltsam anthropomorphe Natur von KI-Systemen und die Priorität, Risiken zu verstehen und gleichzeitig schnelle Innovationen zu verfolgen.

Siehe auch  ChatGPT sagt voraus, wann SHIB 0,0003 $ erreichen wird

Ausgewähltes Bild: Pexels

Avatar User 26485 1696408354

Radek Zielinski

Radek Zielinski ist ein erfahrener Technologie- und Finanzjournalist mit einer Leidenschaft für Cybersicherheit und Zukunftsforschung.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein