Ein Versprechen generativer künstlicher Intelligenz (KI) ist es Potenzial zur Kostensenkung.
Bedauerlicherweise könnte die Realität der Einheitsökonomie, die dem Aufbau und Betrieb grundlegender KI-Modelle innewohnt, dazu führen, dass selbst einige der bekanntesten Plattformen selbst Pleite gehen.
Dies, wie OpenAI – die Organisation, die mit der Einführung ihres chatgpt-Produkts im vergangenen Herbst dafür verantwortlich ist, generative KI zu einem bekannten Namen zu machen – möglicherweise angeblich bis 2024 bankrott gehen, wenn es weiterhin in der derzeitigen Geschwindigkeit Bargeld verbrennt.
Die Plattform erhielt bekanntermaßen eine 10-Milliarden-Dollar-Investition von Microsoft und hat auch andere Risikofinanzierungen erhalten, aber diese Milliarden reichen nur bis zu einem gewissen Grad, wenn es um die Bewältigung der anspruchsvollen, kostenintensiven Computeranforderungen und des wachsenden Umfangs der bahnbrechenden Fähigkeiten der generativen KI geht.
Die Gesamtverluste von OpenAI für 2022 betrugen angeblich Mehr als eine halbe Milliarde US-Dollar (540 Millionen US-Dollar) und das Unternehmen gibt bis zu 700.000 US-Dollar pro Tag für die Aufrechterhaltung seiner zugrunde liegenden Infrastruktur und Serverkosten aus, selbst wenn es sich um ein Unternehmen handelt Die Beliebtheit der Benutzer sinkt.
Die hohen Kosten für die Erstellung und den Betrieb eines KI-Modells sind kein einzigartiges Problem von OpenAI.
google-Forscher haben geschätzt, dass ihre eigenen KI-Ambitionen etwa 10 bis 15 % der des Unternehmens ausmachen Energieverbrauch jedes Jahr, was ungefähr dem gleichen jährlichen Stromverbrauch entspricht wie die Stadt Atlanta – keineswegs eine billige Rechnung.
Diese Zahlen und die damit verbundenen Kosten sind bei anderen Unternehmen derzeit wahrscheinlich ähnlich ihren Fokus auf KI richtenwie Meta und Microsoft.
Analysten schätzen, dass der Bing AI-Chatbot von Microsoft, der auf einem OpenAI Large Language Model (LLM) basiert, mindestens benötigt Infrastruktur im Wert von 4 Milliarden US-Dollar nur um seinen Job zu machen.
Sogar das gut finanzierte KI-Startup Anthropic hat kürzlich zugelegt weitere 100 Millionen Dollar diese Woche (14. August), vermutlich um die Kosten zu tragen explodierende Kosten im KI-Geschäft tätig zu sein.
Mehr lesen:Bei LLMs, die Chatbots für branchenspezifische Anwendungsfälle aufrüsten, stehen die Kosten im Vordergrund
Hohe Infrastrukturkosten
Die hohen Kosten von KI sind eine unangenehme Realität, die vor allem auf die Kosten zurückzuführen ist Rechenleistung ein KI-Modell erfordert. Einige Schätzungen gehen davon aus, dass die Kosten einer einzelnen ChatGPT-Abfrage 1.000-mal so hoch sind wie die der gleichen Frage, die bei einer normalen Google-Suche gestellt wird, wodurch die Margen für KI-Anwendungen deutlich geringer sind als bei anderen Software-as-a-Service-Lösungen (SaaS).
Während die Welt noch etwas in der erste Entwicklungsstadien In der KI-Wirtschaft, in der Unternehmen wie OpenAI, Meta, Elon Musks xAI und andere in erster Linie danach streben, öffentliches Interesse zu wecken und Kunden für ihre Plattformen zu gewinnen, ist es die schiere Höhe der Kosten, die für den Wettbewerb in diesem Sektor erforderlich sind dass die größten Unternehmen der Welt einen bereits verankerten Vorteil haben – ihre Bilanzen.
Aber selbst diese Bilanzen geraten ins Wanken, da Unternehmen Milliarden für Schulungen und die Markteinführung von KI-Modellen aufwenden.
Erheblicher Kapitalaufwand, branchenführendes technisches Know-how und vor allem extrem teuer Computer-Infrastruktur Alle auf Reihen immer knapper werdender GPUs aufgebauten Prozessoren werden benötigt, um generative KI-Modelle zu etablieren und aufrechtzuerhalten, geschweige denn um Positionen bei einigen der größten und wertvollsten Unternehmen der Menschheitsgeschichte zu konkurrieren.
Ausbildung generative KI erfordert entweder den Besitz oder die Anmietung von Zeit für Hardware, einen erheblichen Bedarf an Datenspeicherung und einen hohen Energieverbrauch, ein struktureller Kostenfaktor, der stark von der Einheitsökonomie früherer Computer- und Technologiebooms abweicht.
Das Hosten einer Webseite oder der Betrieb einer App kostet im Vergleich zu den täglichen Kosten für den Betrieb eines LLM oder eines anderen KI-Dienstes Peanuts.
Erschwerend kommt hinzu, dass KI-Modelle regelmäßig neu trainiert werden müssen, um über aktuelle Ereignisse informiert zu bleiben – beispielsweise würde jedes Modell, das auf Daten bis Januar 2022 trainiert wurde (wie ChatGPT-3), viele Ereignisse in der Vergangenheit nicht kennen , einschließlich des Beginns des Russland-Ukraine-Konflikts.
Trotz alledem ist die generative KI Es wird erwartet, dass die Industrie selbst bis 2032 auf 1,3 Billionen US-Dollar wachsen wird.
Siehe auch: Ein Blick hinter die Kulissen der hochaktuellen technischen Anforderungen der KI
NVIDIA-Versorgungskrise
Da KI-Lösungen immer beliebter und kommerzialisiert werden, werden die unglaublich stromhungrigen, unglaublich teuren und unglaublich spezialisierten Chips, die sie antreiben, immer schwieriger zu finden und teurer in der Anschaffung.
GPUs der Spitzenklasse kosten jeweils etwa 10.000 US-Dollar.
NVIDIA, das den Markt für KI-Chips nahezu im Würgegriff hat, hat erlebt, dass seine Produkte sowohl knapp als auch knapp geworden sind gesucht.
Das liegt daran, dass Unternehmen Zehntausende GPUs benötigen, um ihre Modelle zu trainieren, eine erste Investition, die sich im Allgemeinen auf Hunderte Millionen Dollar beläuft.
ChatGPT-4 von OpenAI war wahrscheinlich trainiert auf irgendwo zwischen 10.000 und 25.000 der A100-Chips von NVIDIA und könnte sogar noch mehr benötigen, wenn es jemals plant, ChatGPT-5 auf den Markt zu bringen.
Meta hat bevorratet rund 21.000 A100-Chips, während Tesla etwa 7.000 in seinem Arsenal zählt.
Die fünf größten Technologieunternehmen Chinas haben gemeinsam einen Chipbestellung im Wert von 5 Milliarden US-Dollar in der Hoffnung, ihre eigenen grundlegenden Architekturen aufzubauen, um mit westlichen Technologieunternehmen konkurrieren zu können.
Während die besten Dinge im Leben kostenlos sind, gilt das in der Geschäftswelt einfach nicht – und die beträchtlichen Investitionen der Technologieunternehmen von heute werden sich morgen wahrscheinlich in Hülle und Fülle auszahlen. Solange ihnen nicht das Geld ausgeht, bevor sie dort ankommen.