In den letzten Monaten gab es Gerüchte, dass das Top-KI-Modell von OpenAI, GPT-4, nicht mehr so gut abschneidet wie zuvor.
Menschen auf Social-Media-Plattformen wie Twitter und Reddit äußern viele Beschwerden über das KI-Modell. Sie fragen sich, warum es im Laufe der Zeit anscheinend weniger intelligent geworden ist.
Vor diesem Hintergrund hat ein OpenAI-Manager komm nach vorn auf die Anliegen der Menschen einzugehen und die Situation unter Kontrolle zu bringen.
Peter Welinder, Vizepräsident für Produkte bei OpenAI, wies auf Twitter Behauptungen zurück, dass chatgpt „dümmer“ geworden sei. Er betonte, dass jede neue Version des Modells intelligenter als der Vorgänger sein soll.
Jüngste Diskussionen über die Online-Communitys von OpenAI haben Bedenken hinsichtlich der abnehmenden Fähigkeiten von ChatGPT geweckt. Die Debatte erlangte weitere Aufmerksamkeit, als Insider einen Artikel veröffentlichte. Darin hieß es, dass das fortschrittlichste KI-System der Welt in kürzester Zeit träge und dumm geworden sei.
Darüber hinaus wurde berichtet, dass OpenAI möglicherweise eine schnellere und günstigere Version seines GPT-4-Modells für den Chatbot verwendet, was zu qualitativ schlechteren Ergebnissen führt. Welinder ging nicht direkt auf diese Theorie ein. Allerdings bestätigte er in einem separaten Tweet die Einführung aktualisierter Versionen für GPT-4 und GPT 3.5 durch OpenAI.
Anstatt den Niedergang von ChatGPT zu akzeptieren, bot Welinder eine alternative Perspektive an. Er postulierte, dass Benutzer die Leistungsprobleme mit ChatGPT möglicherweise falsch verstehen. Ihm zufolge bemerken Menschen, wenn sie es häufig nutzen, Mängel, die ihnen vorher nicht aufgefallen sind.
Manche finden die Aussage vielleicht etwas verwirrend oder irreführend. Es ist auch ironisch, weil ChatGPT dafür bekannt ist, manchmal falsche Antworten zu geben.
Darüber hinaus beschränkten sich die Beschwerden nicht nur darauf. Benutzer erwähnten, dass das Modell seltsamerweise schwer fassbar geworden sei. Bisher reagierte es sofort auf eine bestimmte Eingabeaufforderung. Aber jetzt sind zusätzliche Eingabeaufforderungen erforderlich, um dieselbe Aufgabe auszuführen, was mehr Wörter oder Token erfordert.
Dennoch ignoriert Welinder die Bedenken der Benutzer nicht vollständig. In einem separaten Tweet forderte er Benutzer auf, handfeste Beispiele zu teilen, die einen Leistungsabfall von ChatGPT belegen.
Mittlerweile haben einige Leute beobachtet, dass ältere GPT-Modelle bei bestimmten Eingabeaufforderungen oder Anwendungsfällen die aktualisierte Version übertreffen. Dies deutet darauf hin, dass das neuere Modell möglicherweise nicht in allen Kontexten allgemein überlegen ist.
Darüber hinaus wurden Bedenken hinsichtlich der Inhaltsregulierung von ChatGPT geäußert. Benutzer haben über Einschränkungen bei der Fähigkeit von ChatGPT berichtet, bestimmte Fragen zu beantworten. Diese Einschränkungen treten vor allem dann auf, wenn es bei den Abfragen um Politik oder explizite Inhalte geht. Dadurch kann die Gesamtleistung von ChatGPT beeinträchtigt werden.
Lesen Sie weiter: Meta ist bereit für die umfassende Einführung eines kommerziellen KI-Modells, das zum Nutzen aller angepasst werden kann