Ist chatgpt schon alte Neuigkeiten? Es scheint unmöglich, da die explosionsartige Beliebtheit von KI jeden Aspekt unseres Lebens durchdringt – ob es nun digitale Meisterwerke sind, die damit geschaffen wurden beste KI-Kunstgeneratoren oder helfen uns beim Online-Einkauf.
Aber trotz der Tatsache, dass es führend im KI-Wettrüsten ist – und wenn es um die Macht geht Microsofts Bing-KI – Es sieht so aus, als ob ChatGPT an Dynamik verlieren könnte. Entsprechend ÄhnlichesWebDer Verkehr auf der ChatGPT-Website von OpenAI ging im Vergleich zum letzten Monat um fast 10 % zurück, während die Messwerte von Sensorturm zeigte auch, dass auch die Downloads der iOS-App rückläufig sind.
Wie berichtet von Insiderzahlende Benutzer des leistungsstärkeren GPT-4-Modells (der Zugriff darauf ist im Preis inbegriffen). ChatGPT Plus) haben sich in den sozialen Medien und in den eigenen Foren von OpenAI über einen Rückgang der Ausgabequalität des Chatbots beschwert.
Es herrschte allgemeiner Konsens darüber, dass GPT-4 in der Lage war, Ergebnisse schneller, aber in geringerer Qualität zu generieren. Peter Yang, ein Produktleiter für Roblox, kritisierte auf Twitter die jüngste Arbeit des Bots und behauptete, dass „die Qualität schlechter zu sein scheint“. Ein Forumsnutzer sagte, das jüngste GPT-4-Erlebnis habe sich angefühlt, „als würde man einen Monat lang einen Ferrari fahren, dann verwandelt er sich plötzlich in einen ramponierten alten Pickup“.
Die Ausgabe von GPT4 hat sich kürzlich geändert. Die Generierung erfolgt schneller, aber die Qualität scheint schlechter zu sein. Vielleicht versucht OpenAI, Kosten zu sparen. Ist das noch jemandem aufgefallen?21. Mai 2023
Warum hat GPT-4 plötzlich Probleme?
Einige Benutzer waren sogar noch härter und nannten den Bot „dümmer“ und „fauler“ als zuvor, mit einem langer Thread in den OpenAI-Foren voller Beschwerden aller Art. Ein Benutzer, „bitbytebit“, beschrieb es als „jetzt völlig schrecklich“ und „hirntot im Vergleich zu vorher“.
Nutzern zufolge gab es vor einigen Wochen einen Punkt, an dem GPT-4 massiv schneller wurde – allerdings auf Kosten der Leistung. Die KI-Community hat spekuliert, dass dies auf eine Verschiebung des Designethos von OpenAI hin zum leistungsfähigeren Modell des maschinellen Lernens zurückzuführen sein könnte – nämlich die Aufteilung in mehrere kleinere Modelle, die in bestimmten Bereichen trainiert werden und zusammenarbeiten können, um das gleiche Endergebnis zu liefern Gleichzeitig ist die Ausführung von OpenAI kostengünstiger.
OpenAI muss dies noch offiziell bestätigen, da eine so große Änderung der Funktionsweise von GPT-4 nicht erwähnt wurde. Laut Branchenexperten wie Sharon Zhou, CEO eines KI-Entwicklungsunternehmens, ist dies eine glaubwürdige Erklärung Laminider die Multimodell-Idee als den „natürlichen nächsten Schritt“ bei der Entwicklung von GPT-4 beschrieb.
KIs fressen KIs
Es gibt jedoch noch ein weiteres drängendes Problem mit ChatGPT, von dem einige Benutzer vermuten, dass es die Ursache für den jüngsten Leistungsabfall sein könnte – ein Problem, auf das die KI-Branche offenbar kaum vorbereitet ist.
Wenn Sie mit dem Begriff „KI-Kannibalismus“ nicht vertraut sind, lassen Sie mich ihn kurz aufschlüsseln: Große Sprachmodelle (LLMs) wie ChatGPT und google Barde Durchsuchen Sie das öffentliche Internet nach Daten, die bei der Generierung von Antworten verwendet werden sollen. In den letzten Monaten kam es zu einem regelrechten Boom an KI-generierten Inhalten im Internet – inklusive einer unerwünschten Flut von Von KI verfasste Romane auf Kindle Unlimited – bedeutet, dass LLMs bei der Suche nach Informationen im Internet zunehmend Materialien aufsammeln, die bereits von einer KI erstellt wurden.
Dadurch besteht die Gefahr, dass eine Rückkopplungsschleife entsteht, in der KI-Modelle aus Inhalten „lernen“, die selbst KI-generiert wurden, was zu einem allmählichen Rückgang der Kohärenz und Qualität der Ausgabe führt. Da inzwischen zahlreiche LLMs sowohl für Fachleute als auch für die breite Öffentlichkeit verfügbar sind, wird das Risiko des KI-Kannibalismus immer größer – insbesondere, da es noch keinen aussagekräftigen Nachweis dafür gibt, wie KI-Modelle genau zwischen „echten“ Informationen und KI-generierten Inhalten unterscheiden können.
Die Diskussionen rund um KI konzentrierten sich hauptsächlich auf welche Risiken es für die Gesellschaft mit sich bringt – Beispielsweise lehnte Facebook-Eigentümer Meta kürzlich die Öffnung seiner neuen sprachgenerierenden KI für die Öffentlichkeit ab, nachdem dies geschehen war als „zu gefährlich“ für eine Freilassung angesehen. Aber die Kannibalisierung von Inhalten stellt ein größeres Risiko für die Zukunft der KI selbst dar; Etwas, das die Funktionalität von Tools wie ChatGPT zu beeinträchtigen droht, die zum Lernen und Generieren von Inhalten auf von Menschen erstellte Originalmaterialien angewiesen sind.
Verwenden Sie ChatGPT oder GPT-4? Wenn ja, hatten Sie in letzter Zeit das Gefühl, dass die Qualität abgenommen hat, oder haben Sie einfach das Interesse am Chatbot verloren? Ich würde gerne von Ihnen hören auf Twitter. Ist es möglich, dass die Dominanz von OpenAI bei so vielen Konkurrenten, die jetzt auftauchen, zu Ende geht?