Die Photonik erweist sich als harte Nuss

Die wachsende Rechenleistung Leistung, die zum Trainieren anspruchsvoller KI-Modelle wie ChatGPT von OpenAI erforderlich ist, könnte schließlich mit Mainstream-Chiptechnologien gegen eine Wand stoßen.

In einer Analyse aus dem Jahr 2019 hat OpenAI gefunden dass sich von 1959 bis 2012 die zum Trainieren von KI-Modellen verwendete Energiemenge alle zwei Jahre verdoppelte und dass der Stromverbrauch nach 2012 sieben Mal schneller zu steigen begann.

Das belastet schon. Microsoft ist angeblich mit einem internen Mangel an Serverhardware konfrontiert, die für den Betrieb der KI benötigt wird, und die Knappheit treibt die Preise in die Höhe. CNBC schätzt im Gespräch mit Analysten und Technologen die aktuellen Kosten von Ausbildung ein ChatGPT-ähnliches Modell von Grund auf über 4 Millionen Dollar.

Eine Lösung für das KI-Trainingsdilemma, das vorgeschlagen wurde, sind photonische Chips, die Licht zum Senden von Signalen verwenden und nicht die Elektrizität, die herkömmliche Prozessoren verwenden. Photonische Chips könnten theoretisch zu einer höheren Trainingsleistung führen, da Licht weniger Wärme erzeugt als Strom, sich schneller fortbewegen kann und weit weniger anfällig für Temperaturschwankungen und elektromagnetische Felder ist.

Lichtmaterie, Licht an, Leuchtendes Rechnen, Intel und NTT gehören zu den Unternehmen, die photonische Technologien entwickeln. Aber während die Technologie vor einigen Jahren viel Aufsehen erregte – und viele Investitionen anzog – hat sich der Sektor seitdem merklich abgekühlt.

Dafür gibt es verschiedene Gründe, aber die allgemeine Botschaft von Investoren und Analysten, die sich mit Photonik befassen, lautet, dass photonische Chips für KI zwar vielversprechend, aber nicht das Allheilmittel sind, für das sie einst gehalten wurden.

Siehe auch  Hasbro Obi-Wan Lichtschwert, Lego Ich bin Groot
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein