• chatgpt verbraucht täglich mehr als eine halbe Million Kilowattstunden Strom, berichtete The New Yorker.
  • Im Vergleich dazu verbraucht der durchschnittliche US-Haushalt nur 29 Kilowattstunden.
  • Eine Schätzung, wie viel Strom die boomende KI-Industrie verbraucht, ist schwer zu sagen.

KI verbraucht eine Menge Strom.

Der lebhafte Chatbot von OpenAI, ChatGPT, ist es wahrscheinlichDemnach werden mehr als eine halbe Million Kilowattstunden Strom verbraucht, um etwa 200 Millionen Anfragen pro Tag zu beantworten Der New Yorker.

Die Veröffentlichung berichtete, dass der durchschnittliche US-Haushalt täglich etwa 29 Kilowattstunden verbraucht. Wenn man die Strommenge, die ChatGPT pro Tag verbraucht, durch die Menge dividiert, die ein durchschnittlicher Haushalt verbraucht, zeigt sich, dass ChatGPT mehr als das 17.000-fache der Strommenge verbraucht.

Das ist eine Menge. Und wenn generative KI Ist weiterangenommen, es könnte deutlich mehr abfließen.

Zum Beispiel, wenn google integriert ist generative KI-Technologie Nach Berechnungen von Alex de Vries, einem Datenwissenschaftler der niederländischen Nationalbank, würden bei jeder Suche etwa 29 Milliarden Kilowattstunden pro Jahr verbraucht Papier für die Zeitschrift Joule für nachhaltige Energie. Laut The New Yorker ist das mehr Strom, als Länder wie Kenia, Guatemala und Kroatien in einem Jahr verbrauchen.

„KI ist einfach sehr energieintensiv“, sagte de Vries Geschäftseingeweihter. „Jeder einzelne dieser KI-Server kann bereits so viel Strom verbrauchen wie mehr als ein Dutzend britische Haushalte zusammen. Die Zahlen summieren sich also sehr schnell.“

Dennoch lässt sich nur schwer abschätzen, wie viel Strom die boomende KI-Industrie verbraucht. Es gibt erhebliche Unterschiede in der Funktionsweise großer KI-Modelle, und Big-Tech-Unternehmen – die den Boom vorangetrieben haben – waren nicht der Fallgenau offen über ihren Energieverbrauch, heißt es Der Rand.

Siehe auch  Wie ich KI zum Erstellen von Texten verwendet habe und was dabei herausgekommen ist – ChatGPT auf vc.ru

Allerdings in seinem Aufsatz, de Vries hat eine grobe Berechnung erstellt, die auf den von Nvidia veröffentlichten Zahlen basiert – die einige als synchronisiert bezeichnet haben „der Cisco“ des KI-Booms. Nach Angaben von New Street Research, die von CNBC gemeldet wurden, hält der Chiphersteller etwa 95 % des Marktanteils bei Grafikprozessoren.

De Vries schätzt in dem Papier, dass der gesamte KI-Sektor bis 2027 jährlich zwischen 85 und 134 Terawattstunden (eine Milliarde Mal pro Kilowattstunde) verbrauchen wird.

„Sie sprechen davon, dass der KI-Stromverbrauch bis 2027 möglicherweise ein halbes Prozent des weltweiten Stromverbrauchs ausmachen wird“, sagte de Vries gegenüber The Verge. „Ich denke, das ist eine ziemlich bedeutende Zahl.“

Einige der Unternehmen mit dem höchsten Stromverbrauch weltweit verblassen im Vergleich dazu. Den Berechnungen von BI zufolge verbraucht Samsung fast 23 Terawattstunden, während Technologiegiganten wie Google etwas mehr als 12 Terawattstunden verbrauchen und Microsoft etwas mehr als 10 Terawattstunden für den Betrieb von Rechenzentren, Netzwerken und Benutzergeräten verwendet basierend auf einem Bericht von Energielösungen für Verbraucher.

OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme von BI.

5/5 - (380 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein