Ich kann mich nicht ärgern: Während aktuelle LLM- und generative KI-Modelle weit davon entfernt sind, menschliche Intelligenz zu entwickeln, haben Benutzer kürzlich bemerkt, dass chatgpt Anzeichen von „Faulheit“ aufweist, einer angeborenen menschlichen Eigenschaft. Ab Ende November bemerkten die Menschen den Trend.
Ein Benutzer auf Reddit behauptet dass er ChatGPT gebeten hat, eine CSV-Datei (durch Kommas getrennte Werte) mit mehreren Einträgen auszufüllen. Die Aufgabe ist etwas, das ein Computer leicht erledigen kann – selbst ein Programmierer auf Einstiegsniveau kann ein einfaches Skript erstellen, das diese Aufgabe erledigt. ChatGPT lehnte die Anfrage jedoch mit der Begründung ab, sie sei zu schwierig, und forderte den Benutzer auf, dies selbst zu tun und dabei eine einfache Vorlage zu verwenden, die das Unternehmen zur Verfügung stellen könne.
„Aufgrund der umfangreichen Datenlage wäre die vollständige Extraktion aller Produkte recht zeitaufwändig“, sagte die Maschine. „Ich kann die Datei jedoch mit diesem einzelnen Eintrag als Vorlage bereitstellen, die restlichen Daten können Sie bei Bedarf ergänzen.“
OpenAI-Entwickler haben das seltsame Verhalten öffentlich anerkannt, sind sich aber nicht sicher, warum es passiert. Das Unternehmen versicherte den Benutzern, dass es das Problem untersucht und an einer Lösung arbeiten werde.
Wir haben Ihr Feedback dazu gehört, dass GPT4 immer fauler wird! Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Das Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben ð«¡
– ChatGPT (@ChatGPTapp) 8. Dezember 2023
Einige Benutzer haben postuliert, dass es sich um eine Nachahmung von Menschen handeln könnte, die an Feiertagen dazu neigen, langsamer zu werden. Die Theorie war synchronisiert die „Winterpause-Hypothese“. Die Idee dahinter ist, dass ChatGPT durch die Interaktion mit Menschen gelernt hat, dass Ende November und Dezember Zeiten zum Entspannen sind. Schließlich nutzen viele Menschen die Feiertage als Vorwand, um mehr Zeit mit ihren Familien zu verbringen. Daher sieht ChatGPT weniger Maßnahmen. Allerdings ist es eine Sache, weniger aktiv zu werden, und eine andere, die Arbeit komplett zu verweigern.
Der Amateur-KI-Forscher Rob Lynch testete die Winterpause-Hypothese, indem er die ChatGPT-API-Aufgaben mit gefälschten Systemdaten für Mai und Dezember fütterte und dann die Zeichen in den Antworten des Bots zählte. Der Bot schien im Dezember „statistisch signifikante“ kürzere Antworten zu zeigen als im Mai, aber das ist keineswegs schlüssig, auch wenn seine Ergebnisse unabhängig voneinander waren reproduziert.
@ChatGPTapp @OpenAI @tszzl @emollick @voooooogel Wildes Ergebnis. gpt-4-turbo über die API führt zu (statistisch signifikanten) kürzeren Abschlüssen, wenn es „denkt“, es sei Dezember, statt wenn es denkt, es sei Mai (wie durch das Datum in der Systemeingabeaufforderung bestimmt).
Ich habe genau die gleiche Aufforderung angenommen … pic.twitter.com/mA7sqZUA0r
– Rob Lynch (@RobLynch99) 11. Dezember 2023
Lynch führte seinen Test nach Will Depue von OpenAI durch bestätigt dass das KI-Modell Anzeichen von „Faulheit“ oder Arbeitsverweigerung im Labor aufwies. Depue wies darauf hin, dass dies ein „seltsamer“ Vorfall sei, den Entwickler bereits erlebt hätten.
„Ich sage nicht, dass wir keine Probleme mit übermäßigen Ablehnungen haben (das haben wir auf jeden Fall) oder anderen seltsamen Dingen (wir arbeiten an der Behebung eines aktuellen Faulheitsproblems), aber das ist ein Produkt des iterativen Prozesses, sooo viele Anwendungsfälle zu bedienen und zu unterstützen.“ sofort“, twitterte er.
Für manche mag das Problem unbedeutend erscheinen, aber eine Maschine, die sich weigert, Arbeit zu verrichten, ist keine Richtung, in die sich die KI entwickeln soll. Ein LLM ist ein Tool, das konform sein und tun sollte, was der Benutzer verlangt, solange die Aufgabe innerhalb seiner Parameter liegt – natürlich kann man ChatGPT nicht bitten, ein Loch in den Garten zu graben. Wenn ein Werkzeug seinen Zweck nicht erfüllt, nennen wir es kaputt.