Ende November bemerkten Benutzer von chatgpt auf Basis von GPT-4, dass der Chatbot begann, sich zu weigern, Anfragen zu beantworten oder darauf zu antworten zu kurz und vereinfacht gesagt, auch Kreativität gelitten. Die Entwickler haben das Problem erkannt und Sie sagtendass dies kein Merkmal ist, aber sie wissen nicht, warum es entstanden ist. Eine Theorie tauchte unter KI-Forschern unter den Nutzern auf, wenn auch ungetestet – sie genannt „Winterurlaubshypothese“.
Einige der Benutzer scherzten empfohlendass große Sprachmodelle wie Menschen saisonale Depressionen simulieren können. Ein anderer ausgedrückt die Idee, dass die Modelle aus den Trainingsdaten schlossen, dass sich die Menschen im Dezember entspannen und große Projekte auf das nächste Jahr verschieben – und sie nachahmen.
Eine weitere Vermutung hängt mit dem aktuellen Datum zusammen, das der Bot angegeben hat erhält V Systemaufforderung auf Anfrage. Daraufhin wurden die Forscher durch das merkwürdige Verhalten von Modellen veranlasst, wenn sie sie ansprechen, als wären sie lebende Menschen – zum Beispiel wenn man ihnen etwas anbietet tief durchatmen bevor Sie eine Matheaufgabe lösen oder sich einen Tipp holen. Natürlich kann das Modell weder das eine noch das andere, aber aus irgendeinem Grund reagiert es besser. Auch der Druck auf Mitleid hilft, eine gute Antwort zu erreichen – zum Beispiel wenn vorgebenDass du keine Finger hast.
Entwickler Rob Lynch sprach über sein Experiment mit GPT-4 Turbo, bei dem er zwei Systemaufforderungen erstellte. Das erste ließ das Modell glauben, es sei Mai, und das zweite ließ das Modell glauben, es sei Dezember. Es stellte sich heraus, dass das Modell im Durchschnitt längere Antworten gab, als es dachte, es würde Fragen im Mai beantworten – 4.086 Zeichen gegenüber 4.298.
@ChatGPTapp @OpenAI @tszzl @emollick @voooooogel Wildes Ergebnis. gpt-4-turbo über die API führt zu (statistisch signifikanten) kürzeren Abschlüssen, wenn es „denkt“, es sei Dezember, statt wenn es denkt, es sei Mai (wie durch das Datum in der Systemeingabeaufforderung bestimmt).
Ich habe genau die gleiche Aufforderung angenommen … pic.twitter.com/mA7sqZUA0r
— Rob Lynch (@RobLynch99) 11. Dezember 2023
Andere Forscher haben jedoch Lynchs Ergebnisse mit statistischer Signifikanz reproduziert hat nicht funktioniert.