- ChatGPT verbraucht täglich mehr als eine halbe Million Kilowattstunden Strom, berichtete The New Yorker.
- Im Vergleich dazu verbraucht der durchschnittliche US-Haushalt nur 29 Kilowattstunden.
- Eine Schätzung, wie viel Strom die boomende KI-Industrie verbraucht, ist schwer zu sagen.
KI verbraucht eine Menge Strom.
Der lebhafte Chatbot von OpenAI, ChatGPT, ist es wahrscheinlichDemnach werden mehr als eine halbe Million Kilowattstunden Strom verbraucht, um etwa 200 Millionen Anfragen pro Tag zu beantworten Der New Yorker.
Die Veröffentlichung berichtete, dass der durchschnittliche US-Haushalt täglich etwa 29 Kilowattstunden verbraucht. Wenn man die Strommenge, die ChatGPT pro Tag verbraucht, durch die Menge dividiert, die ein durchschnittlicher Haushalt verbraucht, zeigt sich, dass ChatGPT mehr als das 17.000-fache der Strommenge verbraucht.
Das ist eine Menge. Und wenn generative KI noch weiter gehtangenommen, es könnte deutlich mehr abfließen.
Wenn google beispielsweise generative KI-Technologie in jede Suche integrieren würde, würde dies nach Berechnungen von Alex de Vries, einem Datenwissenschaftler der niederländischen Nationalbank, in einem Jahr etwa 29 Milliarden Kilowattstunden verbrauchen Papier für die Zeitschrift Joule für nachhaltige Energie. Laut The New Yorker ist das mehr Strom, als Länder wie Kenia, Guatemala und Kroatien in einem Jahr verbrauchen.
„KI ist einfach sehr energieintensiv“, sagte de Vries gegenüber Business Insider. „Jeder einzelne dieser KI-Server kann bereits so viel Strom verbrauchen wie mehr als ein Dutzend britische Haushalte zusammen. Die Zahlen summieren sich also sehr schnell.“
Dennoch lässt sich nur schwer abschätzen, wie viel Strom die boomende KI-Industrie verbraucht. Es gibt erhebliche Unterschiede in der Funktionsweise großer KI-Modelle, und Big-Tech-Unternehmen – die den Boom vorangetrieben haben – waren nicht der Fallgenau offen über ihren Energieverbrauch, heißt es Der Rand.
Allerdings in seinem Aufsatz, de Vries hat eine grobe Berechnung erstellt, die auf Zahlen von Nvidia basiert – das einige als „Cisco“ des KI-Booms bezeichnen. Nach Angaben von New Street Research, die von CNBC gemeldet wurden, hält der Chiphersteller etwa 95 % des Marktanteils bei Grafikprozessoren.
De Vries schätzt in dem Papier, dass der gesamte KI-Sektor bis 2027 jährlich zwischen 85 und 134 Terawattstunden (eine Milliarde Mal pro Kilowattstunde) verbrauchen wird.
„Sie sprechen davon, dass der KI-Stromverbrauch bis 2027 möglicherweise ein halbes Prozent des weltweiten Stromverbrauchs ausmachen wird“, sagte de Vries gegenüber The Verge. „Ich denke, das ist eine ziemlich bedeutende Zahl.“
Einige der Unternehmen mit dem höchsten Stromverbrauch weltweit verblassen im Vergleich dazu. Den Berechnungen von BI zufolge verbraucht Samsung fast 23 Terawattstunden, während Technologiegiganten wie Google etwas mehr als 12 Terawattstunden verbrauchen und Microsoft etwas mehr als 10 Terawattstunden für den Betrieb von Rechenzentren, Netzwerken und Benutzergeräten verwendet basierend auf einem Bericht von Energielösungen für Verbraucher.
OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme von BI.
Am 28. Februar reichte Axel Springer, die Muttergesellschaft von Business Insider, zusammen mit 31 anderen Medienkonzernen eine Klage in Höhe von 2,3 Milliarden US-Dollar gegen Google vor einem niederländischen Gericht ein und machte geltend, dass das Unternehmen durch die Werbepraktiken des Unternehmens Verluste erlitten habe.
Axel Springer, die Muttergesellschaft von Business Insider, hat einen globalen Vertrag abgeschlossen, der es OpenAI ermöglicht, seine Modelle auf die Berichterstattung seiner Medienmarken zu trainieren.