Jedes Mal, wenn Sie eine Anfrage in chatgpt eingeben und nach einem Rezept für ein Gericht, einer Empfehlung für eine Fernsehsendung oder einer Hausaufgabenlösung fragen, gibt OpenAI Geld für die Verarbeitung aus. Aber wie viel genau? Die Aufrechterhaltung eines generativen KI-Chatbots kann ein Technologieunternehmen bis zu einer Million Dollar pro Tag kosten.

Die Information berichtet, dass OpenAI seine Verluste im vergangenen Jahr vermutlich teilweise aufgrund der enormen Betriebskosten von ChatGPT auf rund 540 Millionen US-Dollar verdoppelt hat. Es ist zu beachten, dass diese Zahlen auf Analystenschätzungen und nicht auf aktuellen Finanzberichten basieren und daher nicht als 100 % korrekt angesehen werden können. Wir wissen jedoch, dass zu den größten Kosten die enormen täglichen Infrastrukturkosten und die Tatsache gehören, dass das Unternehmen Top-Spezialisten von google und apple anzieht.

Laut einer aktuellen BerichtUm täglich Millionen von ChatGPT-Anfragen von OpenAI zu erfüllen, ist eine enorme Rechenleistung erforderlich. Es wird darauf hingewiesen, dass ein generativer Chatbot das Unternehmen zwischen 700.000 und 1 Million Dollar pro Tag kostet.

Dylan Patel, Hauptanalyst bei SemiAnalysis, sagte gegenüber The Information, dass die meisten Kosten auf „teure Server zurückzuführen sind, die für den Betrieb erforderlich sind“ und dass diese Schätzungen auf dem GPT-3-Modell basieren, nicht auf dem aktuellen GPT-4, das OpenAI verwendet . Daher sind diese Daten angesichts der Kosten jeder GPT-4-Anfrage wahrscheinlich ziemlich konservativ.

Beachten Sie, dass diese Schätzungen vor der Einführung des ChatGPT Plus-Premiumdienstes von OpenAI abgegeben wurden, der dieses Jahr erschien. Dieser Service bietet eine schnelle Reaktion auf Anfragen und Priorität während der Hauptverkehrszeiten. OpenAI erwartet in diesem Jahr einen Umsatz von 200 Millionen US-Dollar und prognostiziert für das nächste Jahr einen Umsatz von 1 Milliarde US-Dollar, was dazu beitragen könnte, einen Teil der enormen Kosten auszugleichen und vielleicht sogar das Defizit auszugleichen.

Siehe auch  Microsoft bündelt Bing Chat in Copilot, da es sich im AI Race auf ChatGPT stützt

Jensen Huang, ein KI-Enthusiast und CEO von Nvidia (das sein Geld mit dem Verkauf von GPUs verdient, die teure Server antreiben), prognostizierte kürzlich, dass zukünftige KI-Modelle in den nächsten zehn Jahren noch mehr Strom benötigen werden. Der Nvidia-Chef sagte auch, dass bald mit der Entstehung von „KI-Fabriken auf der ganzen Welt“ zu rechnen sei, die die Arbeit verschiedener KI-Technologien liefern.

Das bedeutet, dass sich die jüngste Investition von Microsoft in Höhe von 10 Milliarden US-Dollar in OpenAI als nützlich erwiesen hat. Dem Bericht zufolge denkt auch OpenAI-CEO Sam Altman darüber nach, in den nächsten Jahren bis zu 100 Milliarden US-Dollar einzusammeln.

Um diese Kosten zu senken, arbeitet Microsoft mit AMD zusammen, um einen eigenen internen KI-Chip zu entwickeln. Dieser neue Chip könnte nächstes Jahr auf den Markt kommen und sollte kostengünstiger sein als die Verwendung einer Nvidia-GPU zum Betrieb von KI-Modellen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein