[ad_1]
Geschäft
chatgpt-Benutzer beschweren sich darüber, dass der beliebte Chatbot „fauler“ geworden ist, indem er sich weigert, einige komplexe Anfragen zu erfüllen – und sein Erfinder OpenAI untersucht das seltsame Verhalten.
Social-Media-Plattformen wie X, Reddit und sogar das Entwicklerforum von OpenAI sind mit Konten übersät, denen zufolge ChatGPT – ein „großsprachiges Modell“, das auf riesigen Mengen an Internetdaten basiert – sich arbeitsintensiven Aufforderungen widersetzt, wie etwa Anfragen, dem Benutzer beim Schreiben von Code und beim Transkribieren von Textblöcken zu helfen.
Der seltsame Trend ist entstanden, da das von Microsoft unterstützte OpenAI einer starken Konkurrenz durch andere Firmen ausgesetzt ist, die generative künstliche Intelligenzprodukte verfolgen, darunter google, das kürzlich sein eigenes Chatbot-Tool „Gemini“ herausgebracht hat.
Ende letzten Monats veröffentlichte der
Der Chatbot weigerte sich zunächst mit der Begründung, er könne „keine vollständige Liste jeder einzelnen Woche erstellen“ – kam aber schließlich nach, als Wensing darauf bestand.
„GPT ist definitiv resistenter gegen mühsame Arbeit geworden“, schrieb Wensing am 27. November. „Im Wesentlichen gibt es Ihnen einen Teil der Antwort und fordert Sie dann auf, den Rest zu erledigen.“
In einem zweiten Beispiel bat Wensing ChatGPT, ein paar Dutzend Codezeilen zu generieren. Stattdessen stellte ihm der Chatbot eine Vorlage zur Verfügung und forderte ihn auf, „diesem Muster zu folgen“, um die Aufgabe abzuschließen.
In einem anderen viralen FallChatGPT lehnte die Anfrage eines Benutzers ab, den in einem Foto enthaltenen Text von einer Buchseite zu transkribieren.
Beamte von ChatGPT bestätigten letzten Donnerstag, dass sie die Situation prüfen.
„Wir haben all Ihr Feedback dazu gehört, dass GPT4 immer fauler wird! Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Das Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben.“
Das Unternehmen präzisierte später seinen Standpunkt und erklärte: „Es geht nicht darum, dass sich das Modell seit dem 11. November irgendwie verändert hat.“
„Es ist nur so, dass Unterschiede im Modellverhalten subtil sein können – möglicherweise ist nur ein Teil der Eingabeaufforderungen beeinträchtigt, und es kann lange dauern, bis Kunden und Mitarbeiter diese Muster bemerken und beheben“, sagte das Unternehmen.
ChatGPT und andere Chatbots erfreuen sich seit letztem Jahr wachsender Beliebtheit. Experten haben jedoch Bedenken hinsichtlich ihrer Neigung zum „Halluzinieren“ oder dem Ausspucken falscher und ungenauer Informationen geäußert, wie beispielsweise einem kürzlichen Vorfall, bei dem ChatGPT und Googles Bard-Chatbot jeweils fälschlicherweise behaupteten, Israel und Hamas hätten eine Waffenstillstandsvereinbarung getroffen, als es zu keiner Einigung kam geschah damals.
Eine kürzlich von Forschern der Long Island University durchgeführte Studie ergab, dass ChatGPT etwa 75 % der Fragen zum Konsum verschreibungspflichtiger Medikamente falsch beantwortete – und einige Antworten gab, die den Patienten Schaden zugefügt hätten.
OpenAI hatte nach der überraschenden Entlassung und Wiedereinstellung von Sam Altman als CEO mit internen Unruhen zu kämpfen. In einem Bericht von letzter Woche hieß es, hochrangige OpenAI-Mitarbeiter hätten vor seiner ersten Entlassung Bedenken geäußert, dass Altman die Mitarbeiter „psychisch missbräuchlich“ behandelt habe.
ChatGPT bleibt der beliebteste Chatbot seiner Art und erreichte laut Altman im November mehr als 100 Millionen aktive wöchentliche Nutzer.
Mehr laden…
{{#isDisplay}} {{/isDisplay}}{{#isAniviewVideo}}
[ad_2]