Sie sitzen vor Ihrem Computer und beginnen, Fragen an chatgpt – einen von OpenAI entwickelten, auf großen Sprachmodellen basierenden KI-Chatbot (Künstliche Intelligenz) – zu einem Arbeitsprojekt zu stellen. Bis Sie Ihre Antworten und einige Lösungen erhalten, haben Ihre Aufforderungen und Fragen möglicherweise mehr Energie verbraucht als eine google-Suchanfrage.

Vor einigen Monaten stellte die Reddit-Gruppe r/aipromptprogramming eine interessante Frage an ChatGPT: Wie viel Energie verbraucht eine einzelne GPT-Abfrage? Der geschätzte Energieverbrauch einer Google-Suchanfrage beträgt 0,0003 kWh (1,08 kJ). Der geschätzte Energieverbrauch einer ChatGPT-4-Abfrage beträgt 0,001–0,01 kWh (3,6–36 kJ), abhängig von der Modellgröße und der Anzahl der verarbeiteten Token.

ÄHNLICHE GESCHICHTEN

Das bedeutet, dass eine einzelne GPT-Abfrage 1.567 % oder 15-mal mehr Energie verbraucht als eine Google-Suchanfrage. Zum Vergleich: Eine 60-W-Glühbirne verbraucht 0,06 kWh in einer Stunde.

Die Forschung bestätigt dies: Der Energie-Fußabdruck von KI wächst, je mehr Menschen sie nutzen, was Fragen zu ihren Auswirkungen auf die Umwelt aufwirft.

In den letzten zwei Jahren kam es zu einer umfassenden Einführung von KI. Der Konversations-ChatGPT-Chatbot von OpenAI brachte den Stein ins Rollen; Jetzt haben Google (Alphabet) und Microsoft ihre eigenen Versionen von Chatbots, Bard bzw. Bing Chat. Laut einem Reuters-Bericht hatte allein ChatGPT Anfang 2023 mehr als 100 Millionen monatlich aktive Nutzer. Von der Erstellung KI-generierter Bilder des „Balenciaga-Papsts“ bis hin zur Indianisierung von Tech-Milliardären nutzen digitale Künstler Tools wie midjourney, um die Grenzen zu verschieben ihrer Fantasie jeden Tag.

In einem aktuellen Artikel in der Zeitschrift JouleAlex de Vries, Doktorand an der VU Amsterdam School of Business and Economics, Niederlande, und Gründer von Digiconomist, einem Forschungsunternehmen, das sich mit Forschung, Analyse und Ideen zu nachhaltigerer Energie befasst, sagte, dass in ein paar Jahren Die Stromversorgung von KI könnte so viel Strom verbrauchen wie ein kleines Land.

Während es komplex ist, die genauen Umweltauswirkungen beispielsweise von ChatGPT zu berechnen, gibt es genügend Beweise, die auf einen dringenden Bedarf an Nachhaltigkeit hinweisen.

Denken Sie an Wasser, Strom

Der Einsatz von KI erfordert nicht nur Strom, sondern auch Wasser.

Gehen wir ein paar Schritte zurück. KI-Chatbots oder Dienste wie ChatGPT sind darauf ausgelegt, menschliche Intelligenz mithilfe von Algorithmen und Deep Learning nachzubilden. Die Grundlage all dessen sind große Sprachmodelle oder LLMs, die riesige Mengen an Informationen und Daten verarbeiten.

Siehe auch  Können Sie wirklich ein Unternehmen allein mit ChatGPT führen?

Die großen Sprachmodelle von OpenAI, einschließlich der Modelle, die ChatGPT unterstützen, werden mit drei primären Informationsquellen entwickelt oder trainiert: im Internet öffentlich verfügbare Informationen, von Dritten lizenzierte Informationen und von Benutzern oder menschlichen Trainern bereitgestellte Informationen.

Dies geschieht in physischen Rechenzentren, in denen Abertausende von Computern die Daten verarbeiten, was enorme Mengen an Strom und Energie erfordert.

In seiner Arbeit sagt De Vries, dass der Gesamtstromverbrauch von Google im Jahr 2021 18,3 TWh (Terawattstunde, eine Energieeinheit) betrug, wobei KI 10–15 % des Gesamtverbrauchs ausmachte: „Das Worst-Case-Szenario deutet auf die KI von Google hin.“ allein könnte so viel Strom verbrauchen wie ein Land wie Irland (29,3 TWh pro Jahr), was im Vergleich zu seinem historischen KI-bedingten Energieverbrauch einen deutlichen Anstieg darstellt.“

Nach Schätzungen der Internationalen Energieagentur, einer autonomen zwischenstaatlichen Organisation, verbrauchten Rechenzentren weltweit im Jahr 2021 220–330 TWh Strom. Im Jahr 2022 lag dieser Wert bei 240–340 TWh, also etwa 1–1,3 % des weltweiten Strombedarfs . Die meisten Rechenzentren sind immer noch auf Netzstrom angewiesen, der aus fossilen Brennstoffen stammt, was zu Treibhausgasemissionen (THG) und steigenden globalen Temperaturen beiträgt. Einige Schätzungen gehen davon aus, dass Rechenzentren weltweit zwischen 1 und 3 % der energiebedingten Treibhausgasemissionen verursachen.

In einem aktuellen Interview mit dem UW-Büro für Nachrichten und Informationen erklärte Sajjad Moazeni, Assistenzprofessor für Elektro- und Computertechnik an der University of Washington, USA, der sich mit der Vernetzung von KI und maschinellem Lernen im Supercomputing beschäftigt, wie viel Energie große Rechenzentren verbrauchen . „Beim Training eines großen Sprachmodells kann jede Verarbeitungseinheit im Betrieb über 400 Watt Strom verbrauchen. „Normalerweise muss man auch für die Kühlung und Energieverwaltung eine ähnliche Menge Strom verbrauchen“, sagte Moazeni. „Insgesamt kann dies zu einem Stromverbrauch von bis zu 10 Gigawattstunden (GWh) führen, um ein einzelnes großes Sprachmodell wie ChatGPT zu trainieren.“ -3. Das entspricht im Durchschnitt ungefähr dem jährlichen Stromverbrauch von über 1.000 US-Haushalten.“

Das Google Cloud-Rechenzentrum vor seiner feierlichen Eröffnung am Freitag, 6. Oktober 2023, in Hanau, Deutschland. Microsoft Corp., Google von Alphabet Inc. und der ChatGPT-Hersteller OpenAI nutzen Cloud Computing, das auf Tausenden von Chips in Servern basiert Riesige Rechenzentren auf der ganzen Welt trainieren KI-Algorithmen, sogenannte Modelle, und analysieren Daten, um ihnen beim Erlernen der Ausführung von Aufgaben zu helfen. (Bloomberg)

Siehe auch  5 Dinge, die CEOs über ChatGPT und generative KI wissen müssen

Wie unsere Laptops und PCs erzeugen auch Rechenzentren Wärme. Während manchmal Luftkühlung zum Einsatz kommt, benötigen viele Rechenzentren auch große Mengen Wasser.

Im Jahr 2021 verbrauchten die globalen Rechenzentren von Google etwa 4,3 Milliarden Gallonen Wasser. Doch wie ein offizieller Blogbeitrag erklärt, verbrauchen wassergekühlte Rechenzentren etwa 10 % weniger Energie und stoßen somit etwa 10 % weniger CO2-Emissionen aus als luftgekühlte Rechenzentren. Anschließend, im Jahr 2021, konnte Google mithilfe der Wasserkühlung den energiebezogenen CO2-Fußabdruck seiner Rechenzentren um rund 300.000 Tonnen CO2 reduzieren. Dies ist das, was Google als „klimabewussten Ansatz zur Kühlung von Rechenzentren“ bezeichnet.

In seinem Umweltverträglichkeitsbericht 2022Laut Microsoft ist der weltweite Wasserverbrauch von 4,7 Millionen Kubikmetern im Jahr 2021 auf 6,4 Millionen Kubikmeter im Jahr 2022 gestiegen. Das sind fast 1,7 Milliarden Gallonen oder mehr als 2.500 olympische Schwimmbecken. Externe Forscher haben diesen Anstieg mit der KI-Forschung in Verbindung gebracht Associated Press Bericht sagte.

„Man kann mit Recht sagen, dass der Großteil des Wachstums auf KI zurückzuführen ist“, einschließlich „ihrer hohen Investitionen in generative KI und der Partnerschaft mit OpenAI“, sagt Shaolei Ren, ein Forscher an der University of California, Riverside, der versucht hat, die Umweltbedingungen zu berechnen Auswirkungen generativer KI-Produkte wie ChatGPT, erzählt AP. In einem Artikel, der später in diesem Jahr veröffentlicht werden soll, schätzt Rens Team, dass ChatGPT jedes Mal etwa 0,5 Liter Wasser verbraucht, wenn man ihm eine Reihe von 5 bis 50 Eingabeaufforderungen oder Fragen stellt, heißt es in dem Bericht.

Eine Darstellung des analogen IBM-Chips, der eine umweltfreundlichere KI verspricht. (IBM)

Kann KI umweltfreundlicher werden?

Einige große Technologieunternehmen arbeiten an Lösungen.

Im August gab IBM bekannt, dass es einen neuen Chip entwickelt hat, der das menschliche Gehirn und die Funktionsweise unserer neuronalen Netze nachahmt und eine umweltfreundlichere KI verspricht. Der analoge Chip, laut einem Artikel in der Naturelektronik Journal kann KI-Aufgaben in natürlicher Sprache mit einer geschätzten 14-mal höheren Energieeffizienz bewältigen.

Siehe auch  Kann ChatGPT die Ernährungserziehung revolutionieren? Studie untersucht Potenziale und Herausforderungen

In ähnlicher Weise gaben Forscher der Northwestern University kürzlich bekannt, dass sie ein nanoelektrisches Gerät entwickelt haben, das die KI möglicherweise um das Hundertfache energieeffizienter machen könnte. Das Gerät, das in Wearables integriert werden könnte, kann große Datenmengen verarbeiten und KI-Aufgaben in Echtzeit ausführen, ohne auf die Cloud angewiesen zu sein und weniger Energie zu verbrauchen als aktuelle Technologien. „Mit seiner geringen Stellfläche, dem äußerst geringen Stromverbrauch und der fehlenden Verzögerungszeit beim Empfang von Analysen eignet sich das Gerät ideal für die direkte Integration in tragbare Elektronikgeräte (wie Smartwatches und Fitness-Tracker) für die Echtzeit-Datenverarbeitung und nahezu sofortige Diagnose. “ heißt es in einer Pressemitteilung der Universität.

Bis 2030 will Google in seinen Rechenzentren kohlenstofffreie Energie nutzen. Wie Google will auch Microsoft bis 2030 „wasserpositiv“ sein und mehr Wasser auffüllen, als es in seinen weltweiten Betrieben in Regionen mit Wasserknappheit verbraucht.

Auch große Namen wie Hewlett Packard Enterprise und Amazon sind in den KI-Cloud-Markt eingestiegen. Untersuchungen haben gezeigt, dass Computing in der Cloud energieeffizienter ist. Ein Bericht von 451 Research, Teil von S&P Global Market Intelligence, aus dem Jahr 2021 ergab, dass Computing in der Cloud fünfmal energieeffizienter ist als lokale Rechenzentren im asiatisch-pazifischen Raum.

Die On-Device-KI, wie sie Nutzer auf den Smartphones Pixel 8 und Pixel 8 Pro von Google sehen werden, dürfte ein entscheidender Wendepunkt sein.

Was können Sie auf individueller Ebene tun? KI-Dienste sinnvoller nutzen, sagen Experten. In einem aktuellen Artikel für die Harvard Business Review Ajay Kumar, außerordentlicher Professor für Informationssysteme und Geschäftsanalysen an der EMLYON Business School, Frankreich, und der amerikanische Autor und Akademiker Thomas H. Davenport, wie man generative KI umweltfreundlicher machen kann, forderten Benutzer auf, beim Einsatz generativer KI anspruchsvoll zu sein. Maschinelles Lernen kann helfen, Katastrophen vorherzusagen und in Bereichen wie der Medizin ein großartiges Werkzeug zu sein, schreiben sie. „Das sind nützliche Anwendungen, aber Tools, die nur zum Generieren von Blog-Beiträgen oder zum Erstellen amüsanter Geschichten dienen, sind möglicherweise nicht die beste Verwendung für diese rechenintensiven Tools. Sie schädigen möglicherweise die Gesundheit der Erde mehr, als sie ihren Menschen helfen.“

Lesen Sie auch: Können Formel-1-Rennen jemals klimaneutral werden?

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein