- ChatGPT hat sich auf seltsame Weise verhalten, und Benutzer haben sich über die „Faulheit“ des Chatbots beschwert.
- OpenAI hat einen Fix eingeführt, aber das seltsame Verhalten von ChatGPT zeigt, wie wenig wir über KI-Modelle wissen.
- Ein KI-Forscher teilte BI mit, dass ein Datenzufluss aus Benutzerinteraktionen dazu führen könnte, dass sich ChatGPT auf seltsame Weise verändert.
ChatGPT hat sich in den letzten Monaten auf seltsame Weise verhalten.
Benutzer haben sich darüber beschwert, dass der Chatbot geworden ist immer fauler und sogar ein bisschen frechwobei OpenAI das Problem anerkennt und Im Januar wird eine Lösung dafür eingeführt.
Die undurchsichtige Natur des KI-Modells, das ChatGPT zugrunde liegt, macht es schwer zu sagen, was mit dem Chatbot los ist – aber ein Forscher glaubt, dass es die enorme Datenmenge aus Benutzerinteraktionen mit dem Chatbot ist, die dazu führt, dass er sich auf unvorhersehbare Weise verändert.
„Ein Modell wie GPT4 ist kein einzelnes Modell. Es ist ein lernendes System, das sich im Laufe der Zeit tatsächlich sehr schnell verändert“, sagte James Zou, Professor und KI-Forscher an der Stanford University, gegenüber Business Insider.
„Ein wichtiger Grund dafür, dass sich die Systeme im Laufe der Zeit weiterentwickeln, ist, dass sie kontinuierlich Feedbackdaten von Millionen von Benutzern erhalten. Ich denke, das ist eine große Quelle möglicher Änderungen im Modell“, fügte er hinzu.
KI-Modelle wie GPT-4 werden ständig optimiert und aktualisiert, wobei sich OpenAI darauf verlässt Interaktionen mit Benutzern, um ChatGPT zu trainieren um gesprächiger und nützlicher zu werden.
Es funktioniert durch einen Prozess namens Verstärkungslernen aus menschlichem FeedbackDabei lernt das KI-Modell, welche Reaktionen für Benutzer günstiger sind, und passt sich entsprechend an.
ChatGPT-Benutzer sagten, der Bot werde faul
In den letzten Monaten haben Benutzer des Chatbots, die Berichten zufolge nun rund 1,7 Milliarden Nutzerhaben sich darüber beschwert, dass es sich schlecht verhalten hat.
Einige posteten auf
OpenAI hat das Problem erkannt und eine Lösung eingeführt, wie CEO Sam Altman sagte ChatGPT sollte jetzt „viel weniger faul“ sein.
KI-Experten sagen oft, dass Modelle wie GPT-4 dies tun im Wesentlichen Black Boxeswobei selbst ihre Entwickler nicht in der Lage sind, vollständig zu erklären, warum sie bestimmte Entscheidungen treffen oder auf bestimmte Weise reagieren.
Infolgedessen neigen sie dazu, unerwartetes und oft geradezu seltsames Verhalten zu zeigen – wie einige Benutzer kürzlich feststellten, als sie feststellten, dass ChatGPT längere Antworten liefern würde wenn sie versprachen, 200 $ Trinkgeld zu geben.
Laut Zou sind einige dieser Macken wahrscheinlich auf menschliche Vorurteile zurückzuführen, die aus den riesigen Mengen an Online-Daten stammen, mit denen der Chatbot trainiert wird.
„Diese großen Modelle werden oft auf Daten im Internetmaßstab trainiert, einem riesigen Textkorpus, der aus Millionen von Websites und Online-Diskussionen besteht“, sagte er.
„Es gibt also viele verschiedene menschliche Verhaltensweisen und menschliche Vorurteile im Trainingsdatensatz, die sich auch in den Sprachmodellen widerspiegeln“, fügte er hinzu.
Zou sagte, ein weiterer Grund für Änderungen im Verhalten von GPT-4 könnte sein google-bard-anthropic-claude-meta-llama-guardrails-easily-bypassed-carnegie-mellon-research-finds-eye-on-a-i/“ data-analytics-product-module=“body_link“ rel=“ nofollow“ data-vars-hyper-link=“https://fortune.com/2023/07/28/openai-chatgpt-microsoft-bing-google-bard-anthropic-claude-meta-llama-guardrails-easily-bypassed-carnegie-mellon-research-finds-eye-on-a-i/“ data-vars-link-domain=“AMP“ data-vars-link-type=“Outbound Click“>OpenAIs Versuche, zusätzliche Leitplanken hinzuzufügen an das Modell, um Missbrauch zu verhindern, der seiner Meinung nach unbeabsichtigt die Leistung von ChatGPT beeinträchtigen könnte.
Er verwies auf Experimente seines Teams in Stanford mit Open-Source-KI-Modellen, die zeigten, dass die Feinabstimmung dieser Modelle, um sie sicherer zu machen, auch dazu führte, dass sie weniger bereit waren, Antworten auf bestimmte Fragen zu geben.
„OpenAI hat entschieden, dass ihre Werte mit Harmlosigkeit, Hilfsbereitschaft und Ehrlichkeit zusammenhängen, und das sind die Bereiche, die sie priorisieren“, sagte Zou.
„Das kann zu konkurrierenden Zielen führen. Wenn man das Modell sehr harmlos macht, wird es vielleicht auch weniger kreativ oder für einige Benutzer weniger nützlich“, fügte er hinzu.
„Ich denke, das könnte auch ein Grund dafür sein, dass wir möglicherweise Abweichungen oder Änderungen im Verhalten des Modells sehen.“
OpenAI reagierte nicht sofort auf eine Bitte um einen Kommentar von Business Insider, die außerhalb der normalen Geschäftszeiten gestellt wurde.