Microsoft setzt viel auf KI, so sehr, dass es Berichten zufolge einen eigenen superstarken Chip entwickelt, der speziell für das Training und den Betrieb seiner ausgeklügelten Chatbot-Systeme entwickelt wurde. Dieser Chip mit dem Codenamen „Athena“ würde eine Leistung von Olympus-Größe benötigen, um alle Ambitionen von Microsoft in der KI-Arena zu kanalisieren.

Am Dienstag, Die Information berichtete auf der Grundlage von zwei anonymen Quellen mit direkter Kenntnis des Projekts, dass Microsofts kommender Athena-Chip seit 2019 in Arbeit sei. In diesem Jahr ist zufällig auch der Tech-Gigant aus Redmond, Washington hat seine erste Investition in OpenAI getätigt, den Machern von ChatGPT und GPT-4. Dem Bericht zufolge wird der Chip hinter den Kulissen von einer kleinen Anzahl von Microsoft- und OpenAI-Mitarbeitern getestet. Der Chip ist Berichten zufolge so konzipiert, dass er sowohl das Training als auch den Betrieb seiner KI-Systeme übernimmt (was bedeutet, dass er eher für die internen Setups von Microsoft als für Ihren persönlichen PC bestimmt ist).

Gizmodo wandte sich an Microsoft, das einen Kommentar ablehnte. Natürlich macht es Sinn, dass das Unternehmen aus Redmond versucht, eine eigene proprietäre Technologie zu entwickeln, um seine wachsenden KI-Ambitionen zu bewältigen. Seit es seiner Bing-App eine ChatGPT-ähnliche Schnittstelle hinzugefügt hat, hat das Unternehmen daran gearbeitet, einen großen sprachmodellbasierten Chatbot in alles von seiner zu installieren 365-Apps Zu Windows 11 selbst.

Microsoft versucht, das Geld zu kürzen, das es anderen Herstellern von KI-Chips zahlt. Nvidia ist der größte Akteur in diesem Bereich, mit seinem 10.000 US-Dollar teuren A100-Chip, der mehr als 90 % des GPU-Marktes für Rechenzentren sowohl für das Training als auch für den Betrieb von KI einnimmt, so der Investor Nathan Benaich in seinem Bericht zum Stand der KI von letztem Oktober.

Siehe auch  Der japanische Spider-Man-Komponist Michiaki Watanabe ist im Alter von 96 Jahren gestorben

Jetzt hat Nvidia einen fortschrittlicheren Chip, den H100-Chip, der nach Angaben des Chipherstellers neunmal so viel Trainingsleistung gewähren soll wie sein bisheriger KI-Trainingschip. NVIDIA behauptet letzten Monat, dass OpenAI und der Stable Diffusion-Hersteller Stability AI jeweils teilweise einen H100 verwendeten, um ihre KI-Modelle der aktuellen Generation zu trainieren und auszuführen. Die Sache ist, dass H100 nicht billig ist. Wie zuerst berichtet von CNBCdiese neuere GPU wurde bei eBay für über 40.000 US-Dollar verkauft, während sie in der Vergangenheit näher an 36.000 US-Dollar gekostet hat.

Nvidia lehnte es ab, sich zu den Plänen von Microsoft zu äußern, sich nicht mehr auf die Technologie des Unternehmens zu verlassen. Obwohl Nvidia den größten Vorsprung bei KI-Trainingschips hat, will das Unternehmen Microsoft wahrscheinlich immer noch als Kunden behalten. Letztes Jahr, die Die USA haben neue Beschränkungen eingeführt um das Unternehmen davon abzuhalten, seine A100- und H100-Chips nach Russland und China zu schicken. Letzten Monat Nvidia genannt es ermöglichte mehr Cloud-basierten Zugriff auf seine H100-Chips und so weiter Auch Meta sprang auf den H100-Zug auf.

Wettbewerb und Kosten beschleunigen Berichten zufolge die Entwicklung von Athena. Google, der andere große Technologieriese, der versucht, in der aufkeimenden KI-Industrie ein Zeichen zu setzen, arbeitet ebenfalls an eigenen KI-Chips. Anfang dieses Monats bot das Unternehmen selbst weitere Details an Tensor-Verarbeitungseinheit Supercomputer. Das Unternehmen sagte, es habe mehrere tausend dieser Chips miteinander verbunden, um einen Supercomputer für maschinelles Lernen zu bauen, und dass dieses System verwendet wurde, um sein PaLM-Modell zu trainieren, das wiederum zur Erstellung seines Modells verwendet wurde Barden-KI.

Siehe auch  Hier ist der neueste Prototyp des riesigen Raumschiffs von SpaceX

Google behauptete sogar, dass seine Chips zwei- bis sechsmal weniger Energie verbrauchen und etwa 20-mal weniger CO2 produzieren als „moderne DSAs“. Mit dem Wissen, wie viel Energie zum Trainieren und Ausführen dieser KI-Modelle benötigt wird, muss der neue Chip von Microsoft damit fertig werden massive Umweltkosten der verbreiteten KI.


Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung über an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden zu Die besten kostenlosen KI-Kunstgeneratoren, Die besten ChatGPT-Alternativen, Und Alles, was wir über ChatGPT von OpenAI wissen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein