Anscheinend wurde chatgpt gestern irgendwann psychotisch, da mehrere Benutzer auf r/chatgpt Probleme meldeten, die von unterhaltsam bis erschreckend reichten. Der Vorfall ist eine Erinnerung daran, sich nicht blind auf die Ergebnisse von LLMs zu verlassen, denn wie wir geraten sie manchmal einfach aus der Bahn.
Yo, Gpt4 hat bei mir gerade den vollen Halluzinationsmodus durchlaufen, ist mir seit den Anfängen von gpt3 nicht mehr so schlimm passiert vonu/cbrules3033 InChatGPT
Aus irgendeinem Grund die harmlose Phrase Viel Spaß beim Zuhören [music emoji] [music emoji]! wird zum Treibstoff für Albträume, wenn es von einer KI, die den Verstand verliert, 20 Mal wiederholt wird.
Hat noch jemand erlebt, dass ChatGPT es verliert? vonu/StackTrace5000 InChatGPT
Da wir nichts über Fallover-Mechanismen wissen, vertrauen wir dem Wort von OP, dass dies reines Unsinn ist.
Zum ersten Mal sehe ich, dass GPT-4 reines Kauderwelsch von sich gibt vonu/Bullroarer_Took InChatGPT
Wenn Sie in Ihrem Aufsatz für die 8. Klasse eine Mindestwortzahl erreichen müssen.
Nicht nur Sie, GPT hat einen Schlaganfall vonu/Zenithine InChatGPT
Wenn das Ambien mitten in einer nächtlichen E-Mail einsetzt.
OpenAI hat gestern Abend mit der Untersuchung des Problems begonnen und wurde kurz nach der Identifizierung und Behebung angegeben. Wir werden nicht vorgeben, den Mann hinter den Kulissen großer Sprachmodelle gut zu kennen, aber es wurde vorgeschlagen, a Temperaturproblem verursachte das Chaos. Wie bei der Kreativitätskontrolle des Models, nicht „Oh wow, es ist heiß in diesem Serverraum.“
Oh und übrigens, Reddit hat gerade einen 60-Millionen-Dollar-Vertrag unterzeichnet, um seine Daten zur Schulung an ein namentlich nicht genanntes KI-Unternehmen zu übergeben. A) Zu spät, die Models haben bereits all diese Daten verschlungen, bevor Reddit den API-Schlauch gerissen hat, und B) Wollen wir wirklich pedantische Models erschaffen, die den überwältigenden Drang verspüren, ständig mit GUT herauszuplatzen?