Kürzlich bemerkten einige Benutzer, dass sich chatgpt trotz seines Hauptzwecks, Aufgaben auszuführen, begann, sich wie ein Mensch zu verhalten. Es gab Fälle, in denen der Bot die Beantwortung von Fragen verweigerte, das Gespräch aufgrund einer Reihe von Fragen unterbrach und den Benutzern manchmal sogar sagte: „Das können Sie selbst machen.“ Die OpenAI-Entwickler haben das Problem erkannt, aber noch keinen Fix veröffentlicht.
Darüber schreibt Gizchina.
Eine interessante Dynamik besteht darin, dass trotz der Behauptung der Entwickler, dass das KI-Modell seit dem 11. November nicht aktualisiert wurde, später Benutzerbeschwerden auftauchten. Dies bedeutet, dass dieses Verhalten des Bots nicht durch Änderungen am Code durch die Entwickler verursacht wurde, sondern spontan entstanden ist. Dies ist wahrscheinlich darauf zurückzuführen, dass das Modell anhand der von Benutzern bereitgestellten Daten trainiert wird.
Laut OpenAI ist das Problem nicht weit verbreitet und Entwickler suchen derzeit aktiv nach Möglichkeiten, es zu lösen. Allerdings haben sie derzeit keine passende Lösung gefunden.
Interessant ist, dass dieses Verhalten ausschließlich im ChatGPT-4-Sprachmodell beobachtet wird, das als Abonnement erhältlich ist, während GPT-3.5, das kostenlos genutzt werden kann, keine derartigen Probleme aufweist.
Zuvor hatte Cursor geschrieben, dass die Europäische Union zum ersten Mal mit dem Kampf gegen künstliche Intelligenz beginnen werde – ein neues Gesetz sei verkündet worden. So heißt es in dem Dokument, dass es für die Technologie der künstlichen Intelligenz nun Regeln geben wird, die von verschiedenen Ländern auf der ganzen Welt befolgt werden müssen, die die potenziellen Vorteile der KI nutzen möchten.