Mit der Entwicklung eines neuen Chips, der speziell für die Ausführung von KI-Modellen entwickelt wurde, macht Meta bedeutende Fortschritte in der künstlichen Intelligenz (KI). Das Unternehmen, das für seine App-Familie und seine Vision des Metaversums bekannt ist, startet einen ehrgeizigen Plan zum Aufbau der nächsten Generation der KI-Infrastruktur.

Metas Vizepräsident und Leiter der Infrastruktur, Santosh Janardhan, teilte in einem aktuellen Blogbeitrag Einzelheiten zu ihren Fortschritten mit. Neben dem maßgeschneiderten Siliziumchip für KI-Modelle arbeitet Meta auch an einem KI-optimierten Rechenzentrumsdesign und der zweiten Phase eines riesigen Supercomputers mit 16.000 GPUs, der der KI-Forschung gewidmet ist. Ziel dieser Initiativen ist es, die Entwicklung und den Einsatz größerer und anspruchsvollerer KI-Modelle im großen Maßstab zu erleichtern.

Meta behauptet, dass KI in den Produkten von Meta bereits eine zentrale Rolle spielt und zu einer besseren Personalisierung, sichereren und faireren Produkten sowie einem verbesserten Benutzererlebnis beiträgt. Mit dem Einsatz von CodeCompose, einem generativen KI-basierten Codierungsassistenten, der entwickelt wurde, um die Entwicklerproduktivität während des gesamten Softwareentwicklungslebenszyklus zu steigern, stellt das Unternehmen sogar die Art und Weise des Codierens neu dar.

Meta-Chip MTIA

Das Herzstück der Infrastrukturfortschritte von Meta ist der MTIA (Meta Training and Inference Accelerator), die firmeneigene, maßgeschneiderte Beschleuniger-Chipfamilie. Laut Meta ist MTIA speziell für Inferenz-Workloads konzipiert und bietet im Vergleich zu CPUs eine überlegene Rechenleistung und Effizienz. Die Kombination von MTIA-Chips mit GPUs führt zu verbesserter Leistung, reduzierter Latenz und größerer Effizienz für jede Arbeitslast.

Darüber hinaus entwickelt Meta ein Rechenzentrum, das bestehende Produkte unterstützen und gleichzeitig zukünftige Generationen von KI-Hardware aufnehmen soll. Dieses KI-optimierte Design verfügt über flüssigkeitsgekühlte KI-Hardware und ein leistungsstarkes KI-Netzwerk, das Tausende von KI-Chips verbindet, um KI-Trainingscluster im Rechenzentrumsmaßstab zu erstellen. Meta behauptet, dass der Bau des neuen Rechenzentrums schneller und kostengünstiger sein wird.

Siehe auch  Dall-E 3 von OpenAI ist jetzt verfügbar. Erstellen Sie Bilder mit ChatGPT

Lesen Sie auch: „Zeit großer Angst und Unsicherheit“: Eine weitere Runde von Meta-Entlassungen soll Berichten zufolge nächste Woche beginnen

Die schnellsten KI-Supercomputer der Welt

Der KI-Supercomputer Research SuperCluster (RSC) von Meta verfügt über 16.000 GPUs. Das Unternehmen behauptet, es sei einer der schnellsten KI-Supercomputer der Welt. Der RSC wurde entwickelt, um große KI-Modelle zu trainieren, die Augmented-Reality-Tools, Systeme zum Verständnis von Inhalten, Echtzeit-Übersetzungstechnologie und mehr unterstützen.

Die Fähigkeit von Meta, seine Infrastruktur von der physischen bis zur virtuellen Ebene, einschließlich Rechenzentren, Serverhardware und mechanischen Systemen, individuell zu gestalten, ermöglicht ein optimiertes End-to-End-Erlebnis. Diese Kontrolle über den gesamten Stack ermöglicht eine Anpassung an spezifische Anforderungen, wie z. B. die Zusammenführung von GPUs, CPUs und Speicher zur effizienten Unterstützung von Arbeitslasten. Es ermöglicht auch, Energie- und Kühllösungen als Teil eines zusammenhängenden Systems neu zu überdenken.

Lesen Sie auch: google, Microsoft, Meta und Amazon stellen nur wenige Monate nach den Entlassungen schlecht bezahlte H-1B-IT-Mitarbeiter ein

4.6/5 - (38 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein