chatgpt antreibt“ width=“700″ height=“492″ data-lazy-srcset=“https://www.geeky-gadgets.com/wp-content/uploads/2023/08/hardware-powering-ChatGPT.webp 700w, https://www.geeky-gadgets.com/wp-content/uploads/2023/08/hardware-powering-ChatGPT-300×211.webp 300w, https://www.geeky-gadgets.com/wp-content/uploads/2023/08/hardware-powering-ChatGPT-75×53.webp 75w“ data-lazy-sizes=“(max-width: 700px) 100vw, 700px“ data-lazy-src=“https://www.geeky-gadgets.com/wp-content/uploads/2023/08/hardware-powering-ChatGPT.webp“/>
Im Bereich der künstlichen Intelligenz ist ChatGPT ein Beweis für die Leistungsfähigkeit moderner Hardware. Dieser KI-Chatbot, ein Produkt der Zusammenarbeit zwischen OpenAI und Microsoft, basiert auf einer beeindruckenden Reihe von Funktionen NVIDIA V100- und A100-GPU-Cluster. Diese GPUs, die speziell für KI- und Analyseanwendungen entwickelt wurden, bilden das Rückgrat der ChatGPT-Infrastruktur.
Der NVIDIA A100-GPU, die primäre Hardwarekomponente von ChatGPT, ist keine durchschnittliche Gaming-GPU. Es fehlt ein Display, was auf seine spezielle Rolle bei KI-Anwendungen hinweist. Diese GPU gibt es in zwei Versionen: einer PCI-Express-Version und einer SXM4-Version. Letzteres ist in Rechenzentren häufiger anzutreffen, da es eine höhere Stromlast bewältigen kann. Die SXM4-Version des A100 kann bis zu 500 Watt verbrauchen, was zu einer überlegenen Leistung führt.
NVIDIA V100 Tensor Core
Der NVIDIA V100 Tensor Core steht derzeit an der Spitze der Rechenzentrums-GPUs und wurde speziell entwickelt, um die Fähigkeiten von künstlicher Intelligenz, Hochleistungsrechnen (HPC), dem aufstrebenden Bereich der Datenwissenschaft und Grafik-Rendering zu steigern. Den neuesten Stand nutzen NVIDIA Volta-Architektur Als Kraftpaket ist diese GPU in zwei Speicherkonfigurationen mit 16 und 32 GB erhältlich.
Die erstaunliche Kapazität ist so groß, dass sie die gleiche Leistung wie bis zu 32 Zentraleinheiten (CPUs) liefert, die in einer einzigen GPU konzentriert sind. Dieses technologische Wunderwerk befähigt Datenwissenschaftler, Forscher und Ingenieure, indem es sie von der Last der Optimierung der Speichernutzung befreit und es ihnen so ermöglicht, ihre Mühe und Zeit in die Entwicklung bahnbrechender KI-Innovationen zu stecken.
In einer Zeit, in der KI überall eingesetzt wird, von der Erkennung von Sprachmustern über die Ausbildung virtueller persönlicher Assistenten (VPAs) bis hin zum Erlernen des Fahrens autonomer Autos, stehen Datenwissenschaftler vor immer komplexeren Herausforderungen. Um diese Komplikationen anzugehen, müssen komplexe und umfangreiche Deep-Learning-Modelle innerhalb eines angemessenen Zeitrahmens erstellt und trainiert werden.
Mit einem beeindruckenden Arsenal von 640 Tensor-Kernen erhebt sich die V100 in den Rang der weltweit ersten GPU, die die 100-TeraFLOPS-Grenze (TFLOPS) durchbricht, was einen Meilenstein in der Deep-Learning-Leistung darstellt. Seine nachfolgende Generation – die NVIDIA NVLink dient dazu, mehrere V100-GPUs mit Blitzgeschwindigkeiten von bis zu 300 GB/s zu verbinden und so die beeindruckendsten Computerserver der Welt hervorzubringen. KI-Modelle, die zuvor die Rechenressourcen wochenlang beanspruchten, können jetzt innerhalb weniger Tage trainiert werden. Diese bemerkenswerte Verkürzung der Trainingszeit eröffnet ein völlig neues Panorama von KI-Herausforderungen, die zuvor als unlösbar galten, und erweitert damit den Horizont der KI-Problemlösungsdomäne.
Welche Hardware wird für ChatGPT verwendet?
Diese GPUs sind über eine Hochgeschwindigkeits-NV-Verbindung miteinander verbunden, sodass die GPUs auf einer einzelnen Platine als eine einzige große GPU fungieren können. Eine einzelne NVIDIA HGX A100-Einheit mit acht A100-GPUs kann ChatGPT ausführen. Aufgrund der großen Anzahl an Benutzern ist jedoch zusätzliche Rechenleistung erforderlich, um einen reibungslosen Betrieb zu gewährleisten.
Die genaue Anzahl der im ChatGPT-Projekt verwendeten GPUs wird von OpenAI und Microsoft nicht bekannt gegeben. Schätzungen gehen jedoch davon aus, dass rund 30.000 A100 im Einsatz sind. Der Trainingsprozess des KI-Modells erforderte wahrscheinlich etwa 4.000 bis 5.000 GPUs, aber um 100 Millionen Benutzer unterzubringen, sind etwa sechsmal mehr GPUs erforderlich.
Microsofts Investition in KI
Schätzungen zufolge beläuft sich die Investition von Microsoft in dieses System auf Hunderte Millionen US-Dollar, wobei die täglichen Betriebskosten mehrere Hunderttausend US-Dollar betragen. Microsoft integriert derzeit die neueren NVIDIA H100-GPUs in seinen Azure Cloud AI-Dienst, der die Leistung des A100 um den Faktor sechs übertrifft und FP8-Unterstützung hinzufügt. Durch dieses Upgrade können mehr Menschen ChatGPT und andere KI-Dienste nutzen und Microsoft kann komplexere Sprachmodelle trainieren.
Neben GPUs nutzt ChatGPT auch CPUs für Aufgaben, die für GPUs weniger geeignet sind, wie das Laden von Daten und das Ausführen der Chat-Schnittstelle. Speicher ist eine weitere wichtige Komponente, wobei SSDs oder Cloud-Speicher typischerweise zum Speichern der riesigen Datensätze und Modelle verwendet werden. Für die Kommunikation von ChatGPT mit Benutzern und anderen Systemen ist ein Hochgeschwindigkeitsnetzwerk, das normalerweise von einem dedizierten Rechenzentrum bereitgestellt wird, unerlässlich.
Der NVIDIA V100-GPU, eine für Rechenzentren entwickelte Hochleistungs-GPU, und ihr Nachfolger, die NVIDIA A100-GPU, sind Schlüsselkomponenten der ChatGPT-Hardwarekonfiguration. SSDs, die schneller als herkömmliche Festplatten sind, und Cloud-Speicher, der auf Remote-Servern gehostet wird, werden zum Speichern der Datensätze und Modelle verwendet, die ChatGPT antreiben.
Die für ChatGPT verwendete Hardware entwickelt sich ständig weiter, da neue Technologien aufkommen, sodass ChatGPT mit der Zeit immer leistungsfähiger und effizienter wird. Dieser KI-Chatbot ist ein Beweis für die Leistungsfähigkeit moderner Hardware und das Potenzial künstlicher Intelligenz.
Quelle und Bildquelle: NVIDIA
Abgelegt unter: Leitfäden, Top-News
Neueste Geeky-Gadgets-Angebote
Offenlegung: Einige unserer Artikel enthalten Affiliate-Links. Wenn Sie über einen dieser Links etwas kaufen, erhält Geeky Gadgets möglicherweise eine Affiliate-Provision. Erfahren Sie mehr über unsere Offenlegungsrichtlinie.