Der Chatbot für künstliche Intelligenz ChatGPT von OpenAI verbraucht wahrscheinlich mehr als eine halbe Million Kilowattstunden Strom, um etwa 200 Millionen Anfragen pro Tag zu beantworten.
Aus der Veröffentlichung geht hervor, dass der durchschnittliche US-Haushalt täglich etwa 29 Kilowattstunden verbraucht. Wenn Sie die Strommenge, die ChatGPT an einem Tag verbraucht, durch die Menge dividieren, die ein durchschnittlicher Haushalt verbraucht, verbraucht ChatGPT über 17.000 Mal mehr Strom.
Wenn generative KI weiterhin eingesetzt wird, könnten die Kosten deutlich höher ausfallen.
Wenn google beispielsweise generative KI-Technologie in jede Suche integrieren würde, würde dies nach Berechnungen des Datenwissenschaftlers Alex de Vries der niederländischen Nationalbank etwa 29 Milliarden Kilowattstunden pro Jahr verbrauchen.
Laut The New Yorker ist das mehr Strom, als Länder wie Kenia, Guatemala und Kroatien in einem Jahr verbrauchen.
„Künstliche Intelligenz ist einfach sehr energieintensiv. Jeder dieser KI-Server kann bereits so viel Strom verbrauchen wie mehr als ein Dutzend britische Haushalte zusammen. Die Zahlen summieren sich also sehr schnell“, sagte de Vries gegenüber Business Insider.
Wie viel Strom die aufstrebende Branche der künstlichen Intelligenz verbraucht, ist jedoch schwer zu bestimmen. Es gibt erhebliche Unterschiede in der Funktionsweise großer KI-Modelle, und die großen Technologieunternehmen, die den Boom vorantreiben, haben ihren Energieverbrauch nicht völlig transparent gemacht.
In seiner Arbeit schätzte de Vries, dass der gesamte Sektor der künstlichen Intelligenz bis 2027 zwischen 85 und 134 Terawattstunden (eine Milliarde Kilowattstunden) pro Jahr verbrauchen wird.