Derzeit bemühen sich die Technologiegiganten der Welt um die Entwicklung von KI. Derzeit ist chatgpt für normale Benutzer zweifellos am bekanntesten, ebenso wie google Bard, Adobe Sensei usw., die alle eine große Anzahl von GPUs benötigen, um Berechnungen durchzuführen und KI trainieren. Derzeit steht die Branche vor dem Dilemma einer unzureichenden GPU.
↓↓↓Gleiche Show: 【e+Probieren Sie es mit Ihnen aus】Das Elektroauto Audi Q4 e-tron SUV ist kostengünstig und hat eine lange Akkulaufzeit↓↓↓
sofort【klicken Sie hier]verwenden Sie die App, um weitere Produkt-Unboxing-Videos anzusehen
Derzeit verwenden KI-Unternehmen in der Entwicklung, wie OpenAI, Anthropic, DeepMind, Google, H100 als Hauptkraft. Obwohl die Kosten für H100 doppelt so hoch sind wie für A100, bietet es die 2,5- bis 3-fache Rechenleistung von A100 und wird derzeit von großen Unternehmen gekauft.
Als der CEO von OpenAI zuvor über GPT-5 sprach, brachte er die Nachricht, dass es einen Mangel an GPUs gibt, die für KI benötigt werden. Welches Unternehmen wird das erste sein, das H100 bekommt und wann wird es H100 bekommen, was zu einem heißen Thema geworden ist unter den Technologieunternehmen des Silicon Valley. Darüber hinaus sagte er unverblümt, dass je mehr Leute es nutzen, desto mehr GPUs benötigt werden. Zum jetzigen Zeitpunkt möchte er nicht, dass zu viele Leute ChatGPT nutzen. Obwohl es überraschend erscheint, zeigt es auch, dass das Verhältnis von Angebot und Nachfrage für GPUs in der KI-Branche sind sehr unausgewogen. Dies kann auch widerspiegeln, warum die großen Investmentbanken an der Wall Street die Bewertung von NVIDIA wiederholt angehoben haben.
【Heißer Bericht】Die Spieladaption der GT-Serie „Romantic Tour of GT Sports Car“ wird diese Woche offiziell veröffentlicht
[Heißer Bericht]Der rein elektrische Sportwagen Hyundai IONIQ 6 wird zum ersten Mal offiziell in Hongkong verkauft
Quelle: ezone.hk