Als die chatgpt-App viele Wochen lang die Download-Rangliste im App Store dominierte, freuen sich immer mehr Benutzer darauf, sie in ihr tägliches Leben und ihre Arbeit zu integrieren, aber OpenAI-CEO Sam Altman war letzten Monat in einer Senatsanhörung zu KI-Themen: „Es wäre besser.“ wenn weniger Menschen ChatGPT nutzen“, sagte das Treffen.
Tatsächlich wird OpenAI, das immer mehr an Dynamik gewinnt, derzeit durch einen Mangel an GPUs gebremst. Mitte Mai enthüllte Sam Altman einer Gruppe von Softwareentwicklern und Start-ups bei einem privaten Treffen hinter verschlossenen Türen mit etwa 20 Personen in London heimlich das Innenleben des Unternehmens.
Der Inhalt des Treffens wurde später durchgesickert. Laut Fortune gab ein Teilnehmer den Inhalt des Treffens in einem bestimmten Blog bekannt, woraufhin der Artikel schnell aus den Regalen entfernt wurde. Der Artikel offenbart den Schmerz von OpenAI:ChatGPT hat keine GPU-Unterstützung mehr。
Weiterführende Literatur: Microsoft hat dringend einen Vertrag mit der NVIDIA-Investmentgesellschaft unterzeichnet – OpenAI gab zu, dass der Mangel an GPU zu einem Leistungseinbruch von ChatGPT geführt hat
Der CEO von OpenAI rutscht aus: GPU-Mangel führt dazu, dass sich Kunden häufig beschweren
Sam Altman wies darauf hin, dass Benutzer aufgrund des Mangels an GPUs offensichtlich eine träge Reaktion und eine unzuverlässige Qualität bei der Nutzung der Dienste von OpenAI verspüren. Diese Situation ist sogar so ernst, dass einige Unternehmenskunden zurückschrecken und nicht bereit sind, die Technologie von OpenAI zu übernehmen, um ihre eigenen zu erstellen Softwaredienstleistungen für Unternehmen.
Nabla, ein Startup, das KI-Assistenten für Ärzte entwickelt, hat sich laut The Wall Street Journal öffentlich darüber beschwert, dass die Software von OpenAI bis zu zwei Minuten braucht, um Benutzeranfragen zu verarbeiten. Dies ist eine inakzeptable Reaktionsgeschwindigkeit für Nabla, das Ärzte mithilfe von KI dabei unterstützt, automatisch klinische Empfehlungen und Diagnosenotizen zu erstellen.
Aufgrund der Computerressourcenkarte ist die ursprüngliche Langformfunktion von ChatGPT begrenzt
Auch aufgrund unzureichender Rechenressourcen verschiebt OpenAI viele ursprüngliche Pläne. Eine der unmittelbarsten Auswirkungen auf die Mehrheit der Benutzer ist die Fähigkeit von ChatGPT, lange Gespräche zu erweitern. Die meisten Nutzer von GPT-4 hatten ursprünglich ein Dialogkontingent von etwa 8000 Token. Token bezieht sich auf die Grundeinheit des von KI generierten Sprachtextes. Jedes Mal, wenn ChatGPT 75 englische Wörter generiert, kostet es etwa 100 Token.
Es versteht sich, dass OpenAI im März einen 32.000 Token langen Dialogmodus für bestimmte Benutzer veröffentlicht hat, aber nur wenige Benutzer können diese Länge wirklich nutzen, da das System meistens nicht über genügend Rechenressourcen verfügt, um ihn zu verarbeiten. Darüber hinaus stellte OpenAI ursprünglich ein dediziertes Kontingent für Kunden mit vielen Anforderungen sowie eine zusätzliche private Kopie des GPT-Modells zur Verfügung. Kunden müssen für diesen Service 100.000 US-Dollar im Voraus bezahlen, aber jetzt ist dieser Service aufgrund von eingeschränkt unzureichende GPUs.
Schwerer zu bekommen als Drogen!Auch Musk beeilte sich, GPU-Ressourcen zu ergattern
Wie kurz ist die GPU jetzt? Das Wall Street Journal berichtete, dass einige Serverhersteller und Kunden angaben, mehr als sechs Monate auf die neueste GPU von NVIDIA warten zu müssen. Musk beschrieb GPUs sogar als „schwerer zu bekommen als Medikamente“. Es versteht sich, dass der GPU-Marktführer NVIDIA zwar behauptet, sein Bestes zu tun, um die Produktionskapazität zu erhöhen, die Technologiegiganten jedoch aufgrund der begrenzten GPU-Rechenkapazität bereits die Führung übernommen haben.
Einige Insider wiesen darauf hin, dass ein Start-up-Unternehmen vor einiger Zeit versuchte, mehr Cloud-Speicherplatz von Oracle zu kaufen, Oracle mitteilte, dass andere Käufer den größten Teil des freien Speicherplatzes des Unternehmens gekauft hätten und der Käufer dahinter Musk sei. Die Außenwelt spekuliert, dass dieser Schuss Musks Vorbereitung auf das Layout des OpenAI-Konkurrenten, also des neuen KI-Unternehmens „X.AI“, sein soll.
Weiterführende Literatur:[Intrigiert Musk wirklich?]Er rief dazu auf, den KI-Wettbewerb auszusetzen, gründete aber stillschweigend ein KI-Unternehmen, um aufzuholen. Was sagte der CEO von OpenAI?
Das „Wall Street Journal“ nutzte das „Toilettenpapier-Chaos“ der Technologieriesen, um die Verlegenheit der großen Hersteller zu beschreiben, die um GPU-Ressourcen konkurrieren.
Microsoft möchte eine Allianz mit Oracle eingehen, um OpenAI genügend Nahrung und Gras zum Sprinten zu geben
Wir freuen uns auf die ursprünglich von OpenAI gesetzten Entwicklungsziele: In diesem Jahr soll ein Modell entstehen, das 3 bis 4 Mal größer als GPT-4 ist, nächstes Jahr wird GPT-4 eine Dialogfähigkeit einführen, die Bilder ein- und ausgeben kann. Als größter Pate hinter OpenAI könnte Microsoft begonnen haben, sich zu schämen.
Microsoft hat bisher 13 Milliarden US-Dollar in OpenAI investiert, und die meisten KI-Modelle von OpenAI basieren zum Betrieb auch auf der von Microsoft bereitgestellten Cloud-Infrastruktur. Auch Sam Altman lobte Azure gegenüber den Medien als den am besten geeigneten Cloud-Dienstanbieter für den Betrieb generativer KI.
„The Information“ berichtete, dass Microsoft die Möglichkeit einer Allianz mit Oracle diskutiert, um zu verhindern, dass seine kleinen goldenen Küken verhungern und aufgrund von Nahrungsmangel groß werden. Durch den Austausch der Serverkonstruktion beider Parteien ist eine Erweiterung möglich Die den Kunden zur Verfügung stehenden Rechenressourcen. Schließlich geht die Branche allgemein davon aus, dass der Mangel an GPUs in den letzten zwei Jahren nur schwer zu lindern sein wird.
*Dieser Artikel steht Partnern zum Nachdruck offen, Informationsquelle:Reichtum、Wallstreet Journal、Die Information、OpenAI,Bildquelle:Sam Altman
(Chefredakteur: You Maorong)