Ich kann mich nicht ärgern: Während aktuelle LLM- und generative KI-Modelle weit davon entfernt sind, menschliche Intelligenz zu entwickeln, haben Benutzer kürzlich bemerkt, dass chatgpt Anzeichen von „Faulheit“ aufweist, einer angeborenen menschlichen Eigenschaft. Ab Ende November bemerkten die Menschen den Trend.

Ein Benutzer auf Reddit behauptet dass er ChatGPT gebeten hat, eine CSV-Datei (durch Kommas getrennte Werte) mit mehreren Einträgen auszufüllen. Die Aufgabe ist etwas, das ein Computer leicht erledigen kann – selbst ein Programmierer auf Einstiegsniveau kann ein einfaches Skript erstellen, das diese Aufgabe erledigt. ChatGPT lehnte die Anfrage jedoch mit der Begründung ab, sie sei zu schwierig, und forderte den Benutzer auf, dies selbst zu tun und dabei eine einfache Vorlage zu verwenden, die das Unternehmen zur Verfügung stellen könne.

„Aufgrund der umfangreichen Datenlage wäre die vollständige Extraktion aller Produkte recht zeitaufwändig“, sagte die Maschine. „Ich kann die Datei jedoch mit diesem einzelnen Eintrag als Vorlage bereitstellen, die restlichen Daten können Sie bei Bedarf ergänzen.“

OpenAI-Entwickler haben das seltsame Verhalten öffentlich anerkannt, sind sich aber nicht sicher, warum es passiert. Das Unternehmen versicherte den Benutzern, dass es das Problem untersucht und an einer Lösung arbeiten werde.

Einige Benutzer haben postuliert, dass es sich um eine Nachahmung von Menschen handeln könnte, die an Feiertagen dazu neigen, langsamer zu werden. Die Theorie war synchronisiert die „Winterpause-Hypothese“. Die Idee dahinter ist, dass ChatGPT durch die Interaktion mit Menschen gelernt hat, dass Ende November und Dezember Zeiten zum Entspannen sind. Schließlich nutzen viele Menschen die Feiertage als Vorwand, um mehr Zeit mit ihren Familien zu verbringen. Daher sieht ChatGPT weniger Maßnahmen. Allerdings ist es eine Sache, weniger aktiv zu werden, und eine andere, die Arbeit komplett zu verweigern.

Siehe auch  Die chinesische Herausforderung ChatGPT

Der Amateur-KI-Forscher Rob Lynch testete die Winterpause-Hypothese, indem er die ChatGPT-API-Aufgaben mit gefälschten Systemdaten für Mai und Dezember fütterte und dann die Zeichen in den Antworten des Bots zählte. Der Bot schien im Dezember „statistisch signifikante“ kürzere Antworten zu zeigen als im Mai, aber das ist keineswegs schlüssig, auch wenn seine Ergebnisse unabhängig voneinander waren reproduziert.

Lynch führte seinen Test nach Will Depue von OpenAI durch bestätigt dass das KI-Modell Anzeichen von „Faulheit“ oder Arbeitsverweigerung im Labor aufwies. Depue wies darauf hin, dass dies ein „seltsamer“ Vorfall sei, den Entwickler bereits erlebt hätten.

„Ich sage nicht, dass wir keine Probleme mit übermäßigen Ablehnungen haben (das haben wir auf jeden Fall) oder anderen seltsamen Dingen (wir arbeiten an der Behebung eines aktuellen Faulheitsproblems), aber das ist ein Produkt des iterativen Prozesses, sooo viele Anwendungsfälle zu bedienen und zu unterstützen.“ sofort“, twitterte er.

Für manche mag das Problem unbedeutend erscheinen, aber eine Maschine, die sich weigert, Arbeit zu verrichten, ist keine Richtung, in die sich die KI entwickeln soll. Ein LLM ist ein Tool, das konform sein und tun sollte, was der Benutzer verlangt, solange die Aufgabe innerhalb seiner Parameter liegt – natürlich kann man ChatGPT nicht bitten, ein Loch in den Garten zu graben. Wenn ein Werkzeug seinen Zweck nicht erfüllt, nennen wir es kaputt.

Siehe auch  das bösartige ChatGPT, das das Web terrorisiert

5/5 - (216 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein