Seit der Veröffentlichung von GPT-4 im März letzten Jahres wird über die Veröffentlichung und die potenziellen Fähigkeiten von GPT-5 spekuliert. Mit sehr wenig Kommentar von OpenAI zu diesem Thema.
Für ein Unternehmen mit „offen“ im Namen ist OpenAI fast so zurückhaltend wie apple, wenn es um neue Produkte geht – und setzt sie aus dem Nichts auf X, wenn sie das Gefühl haben, dass die Zeit reif ist.
Jedoch, Geschäftseingeweihter berichtet, dass wir die Einführung des Flaggschiffmodells bereits in diesem Sommer bei chatgpt sehen könnten und dass es sich „wesentlich“ von GPT-4 unterscheiden wird.
Die Grundlage für die Gerüchte über die Veröffentlichung im Sommer scheinen Drittunternehmen zu sein, die frühzeitig Zugang zum neuen OpenAI-Modell erhalten haben. Diese Unternehmenskunden von OpenAI gehören zum Lebensunterhalt des Unternehmens und bringen erhebliche Einnahmen, um die wachsenden Kosten für den Betrieb immer größerer Modelle zu decken.
Wird GPT-5 diesen Sommer erscheinen?
Die Gerüchte über die Veröffentlichung im Sommer stehen im Widerspruch zu dem, was OpenAI-CEO Sam Altman in seinem Interview mit OpenAI vorgeschlagen hat Lex Fridman. Er sagte, dass es dieses Jahr zwar neue Modelle geben werde, diese aber nicht unbedingt GPT-5 sein müssten.
„Wir werden dieses Jahr ein fantastisches Modell herausbringen, ich weiß noch nicht, wie wir es nennen werden“, sagte er. „Ich denke, bevor wir über ein GPT-5-ähnliches Modell sprechen, müssen wir zunächst viele andere wichtige Dinge veröffentlichen.“
Dazu könnte das Video-KI-Modell Sora gehören, das laut OpenAI-CTO Mira Murati noch in diesem Jahr erscheinen soll.
Altman gab erstmals bekannt, dass GPT-5 im November letzten Jahres mit dem Training begonnen hatte und dass dies monatelange Arbeit erfordern könnte, wenn es nicht wesentlich größer als sein Vorgänger ist.
Der Bericht von Business Insider deutet darauf hin, dass sie über die Schulung hinaus zum „Red Teaming“ übergegangen sind, insbesondere wenn sie Drittunternehmen Demos anbieten. Allerdings geht man davon aus, dass es sich um GPT-5 handelt.
Beim Red Teaming wird das Modell auf die Spitze getrieben und auf Sicherheitsprobleme getestet. Der nächste Schritt nach dem Red Teaming ist die Feinabstimmung des Modells, die Korrektur von beim Testen festgestellten Problemen und das Hinzufügen von Leitplanken, um es für die öffentliche Veröffentlichung vorzubereiten.
Allein diese Phase könnte Monate dauern, wie es bei GPT-4 der Fall war, und daher könnte es sich bei dem, was diesen Sommer als GPT-5-Veröffentlichung vorgeschlagen wird, tatsächlich um GPT-4.5 handeln. Immerhin gab es Anfang des Jahres einen gelöschten Blog-Beitrag von OpenAI, der sich auf GPT-4.5-Turbo bezog, der an Bing durchgesickert war.
Das würde an die Veröffentlichungen der vorherigen Generation anknüpfen und von GPT-3 zu GPT-3.5 wechseln, bevor GPT-4 herauskam. Wir haben auch GPT-3.5-Turbo und dann GPT-4-Turbo gesehen, das jetzt kostenlos in Microsoft Copilot verfügbar ist.
Was können wir von GPT-5 erwarten?
Hier ist mein Gespräch mit Sam Altman (@sama), sein zweites Mal im Podcast. Wir sprechen über die Board-Saga, die Elon-Klage, Ilya, Sora, GPT-5, 7 Billionen US-Dollar an Rechenleistung, Open Source und AGI. Das war ein wirklich faszinierendes Gespräch. Es ist hier in voller Länge auf X und auf YouTube verfügbar, … pic.twitter.com/h2ANXZpcrz18. März 2024
Altman hat zuvor gesagt, dass GPT-5 eine große Verbesserung gegenüber allen Modellen der vorherigen Generation darstellen wird. Dazu gehören Videofunktionen – etwa die Fähigkeit, den Inhalt von Videos zu verstehen – und eine deutlich verbesserte Argumentation.
Über die aufgebauschten Kommentare in Interviews hinaus wurden nur wenige konkrete Details enthüllt. Wir wissen, dass es wahrscheinlich größer sein wird und mehr Parameter als GPT-4 haben wird, aber um wie viel ist unklar.
Über die Größe des Vorgängers erfahren wir gerade erst Einzelheiten. Jensen Huang, CEO von Nvidia, enthüllte während der GDC, dass GPT-4 1,8 Billionen Parameter hatte und zum Trainieren 30 Yottaflops Rechenleistung benötigte – das ist so, als ob eine Milliarde PS5 93.000 Jahre lang ununterbrochen laufen würde.
Wir wissen jedoch nicht, ob sie beim Training von GPT-5 die neuen exaFLOP-GPU-Plattformen von Nvidia genutzt haben. Ein relativ kleiner Cluster von Blackwell-Chips in einem Rechenzentrum könnte ein Billionen-Parameter-Modell in Tagen statt in Wochen oder Monaten trainieren.
Altman sagte, es werde viel intelligenter sein als die Vorgängermodelle. „Ich freue mich, dass es intelligenter ist“, sagte Altman in seinem Interview mit Fridman. „Es wird auf ganzer Linie besser.“
Es gab schon früh Spekulationen darüber, dass GPT-5 der erste Hinweis auf eine übermenschliche Intelligenz sein würde, die auch als künstliche allgemeine Intelligenz (AGI) bekannt ist. Doch es sieht immer mehr danach aus, dass es zwar ein Fortschritt gegenüber GPT-4 sein wird, dies aber nicht sein wird so ein großer Sprung.
Mehr von Tom's Guide