Foto: Depositphotos.com
Viele Benutzer neuronaler Netzwerke sind auf eine ungewöhnliche Situation bzw. das seltsame Verhalten eines auf GPT-4 basierenden KI-Bots gestoßen. Wie sich herausstellte, gab der Chatbot keine prägnanten und genauen Antworten auf Fragen mehr und forderte die Person auf, ihre Recherche selbst abzuschließen.
Wie Vertreter von OpenAI schreiben, hat eine solche Neuerung nichts mit den neuesten Updates zu tun. Tengri Life erzählt mehr unter Bezugnahme auf 4PDA.
Der Chatbot begann, dieses Verhalten von selbst zu projizieren. Wenn er beispielsweise gebeten wird, Code zu schreiben, gibt er Informationen ohne Details und weist auch darauf hin, dass die Person die restlichen Zeilen selbst schreiben soll.
Zahlreiche Beschwerden über die aufkommende „Faulheit“ und „Apathie“ der künstlichen Intelligenz haben bei Entwicklern für Verwirrung gesorgt. Die Ursache des Fehlers bleibt unbekannt.
„Wir haben alle Ihre Beschwerden darüber gehört, dass GPT4 langsamer wird! Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist eindeutig nicht beabsichtigt. Das Verhalten des Modells kann unvorhersehbar sein, und wir versuchen, das zu beheben“, sagten Vertreter sagte auf Network X.
Wir haben Ihr Feedback dazu gehört, dass GPT4 immer fauler wird! Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben 🫡
– chatgpt (@ChatGPTapp) 8. Dezember 2023
Beachten Sie, dass das GPT-4-Sprachmodell zuvor großen Erfolg bei den Benutzern hatte. Es waren ihre Antworten, die von 70 Prozent derjenigen bevorzugt wurden, die sich bei ihrer Arbeit mit künstlicher Intelligenz ausstatteten. Daher plant OpenAI, den Fehler zu beheben. Allerdings hat das Unternehmen den Zeitrahmen für die Korrektur des Algorithmus noch nicht bekannt gegeben.
Künstlicher Intelligenz wurde beigebracht, schwer zu diagnostizierende Krebsarten zu identifizieren. Lies hier.