Es ist zum Haupttabu der Technologieakteure geworden: die Klimaauswirkungen der neuen künstlichen Intelligenz (KI). Seit dem Aufkommen von chatgpt, dem Konversationsroboter von OpenAI, sind sogenannte „generative“ KIs seit einem Jahr auf dem Vormarsch und werden gerne als kommender Umbruch angepriesen „mindestens so wichtig wie das Internet“. Abgesehen davon, dass die Frage nach den Ressourcen, die nötig sind, damit sie funktionieren, nie aufgeworfen wird.
Die amerikanische OpenAI verkörpert dieses Problem aufs Äußerste. Während das Start-up behauptet „Die Zukunft der Technologie gestalten“ mit „Eine sorgfältige Prüfung seiner Auswirkungen“Während sie die Klischees von Mitarbeitern, die von grünen Pflanzen umgeben sind, vervielfacht, gibt sie niemals die geringsten Details zu den Auswirkungen auf die Umwelt preis. Von „l’Obs“ befragt, greift sie ein, ohne das geringste Element beizutragen. Das Gleiche gilt, wenn wir ChatGPT selbst in Frage stellen: Es verfehlt den Kernpunkt: „Es hängt alles davon ab, wie es verwendet wird […] Die genauen Zahlen variieren je nach Infrastruktur. » An sein Forum Unter den Nutzern äußert sich ein Manager des Unternehmens ebenso augenzwinkernd über den CO-Ausstoß2 aufgrund der Nutzung von ChatGPT:
Der Rest nach der Anzeige
„Wir haben diese vollständige Berechnung noch nicht durchgeführt. Aber der Trend geht nach unten, Richtung Null. Die OpenAI-Infrastruktur läuft auf Azure [les serveurs cloud de Microsoft, NDLR]und Azure wird bis 2025 zu 100 % mit erneuerbarer Energie betrieben.“
OpenAI wird größtenteils vom Riesen Microsoft finanziert, der sich verpflichtet hat, bis 2030 einen negativen CO2-Fußabdruck zu erreichen. Aber zwischen diesem versprochenen Horizont und der aktuellen Realität ist es unmöglich, mehr zu wissen. „Das ist das Schlimmste: Wir haben keine Informationen, obwohl wir Zeuge eines Wettlaufs von Unternehmen sind, überall generative KI einzusetzen, ohne die Frage nach den Auswirkungen zu stellent, bedauert Sasha Luccioni, Klimamanagerin bei Hugging Face, einer KI-Entwicklungsplattform. OpenAI sagt nichts über den Standort seiner Server und den Wasserverbrauch zu deren Kühlung, sagt nicht, wie groß sein KI-Modell ist, ob ein oder mehrere Modelle parallel laufen – und vervielfacht somit die Wirkung –, sagt nicht die Chips die ihre Maschinen ausrüsten – und damit ihren Verbrauch an Energie und Mineralien – usw. »
Wir müssen uns dann auf unabhängige Studien verlassen. Und das Ergebnis ist eindeutig: „KI hat einen schrecklichen CO2-FußabdruckTranche ein Artikel veröffentlicht im „MIT Technology Review“ des renommierten Massachusetts Institute of Technology. Das Training eines einzelnen KI-Modells kann so viel CO ausstoßen2 nur fünf Autos in ihrem Leben. » Im Fall von ChatGPT, eine Veröffentlichung von der University of California schätzt, dass das Training der dritten Version 1.287 MWh Strom verbrauchte, wobei letztere 552 Tonnen CO-Äquivalent ausgestoßen hat2oder mehr als 205 Hin- und Rückflüge zwischen Paris und New York. Die Menge, zu der noch der tägliche Verbrauch hinzukommt, wird auf 23,04 kg CO geschätzt2 pro Tag – also 8,4 t CO2 pro Jahr, das entspricht fast sechs Jahren elektrischer Heizung für ein 100 m² großes Haus in Frankreich.
Sie wissen nicht mehr, ob Sie mit einem Menschen oder einer Maschine chatten? Willkommen in der Postrealität
Rechenzentren wurden bereits geschätzt, wobei diese Rechenzentren für die Verarbeitung aller online vorliegenden Informationen unerlässlich sindUmwelt 1 % der weltweiten Treibhausgasemissionen – kaum weniger als Brasilien oder der gesamte Luftfahrtsektor. Cloud-Speicher, der jetzt von diesen generativen KIs genutzt wird, dürfte seine Auswirkungen auf die Umwelt verzehnfachen. Somit könnten Rechenzentren für 14 % der Emissionen verantwortlich sein bis 2040.
Auch wenn Dutzende Unternehmen sagen, dass sie ihre eigenen Chatbots und andere generative KI-Tools einsetzen wollen, ist das keine besonders gute Nachricht für das Klima und die Umwelt. Und wir beginnen es beim Wasserverbrauch zu sehen, der zur Kühlung der Server verwendet wird. A Aktuelle Studie bewertet dass allein für das Training der dritten Version von ChatGPT 700.000 Liter Frischwasser verbraucht wurden. Verbrauch, zu dem pro Austausch 500 ml Wasser hinzugefügt werden müssen, wobei die KI aus 20 bis 50 Fragen und Antworten besteht. Bedenken Sie: Für jedes Gespräch mit dem Roboter wird eine kleine Flasche Wasser verbraucht! Und der Schwindel ist total, wenn wir das mit den 60 Millionen täglichen Nutzern multiplizieren. „Der Gesamtwasserverbrauch ist einfach enorm! », Kommentare einer der Forscher.
Der Rest nach der Anzeige
Das verrückte Wachstum der Rechenzentren in Frankreich
Und es beginnt sich zu zeigen. Seit letztem Jahr, also seit dem Hosting von OpenAI-Maschinen, Microsoft hat aufgenommen einen Anstieg des Wasserverbrauchs in seinen Rechenzentren um ein Drittel. Das Gleiche gilt für den Konkurrenten google, dessen Wasserausgaben seit der Einführung seiner Bard-KI um 20 % gestiegen sind.
„Das Problem ist, dass wir uns in einem Wettlauf befinden: Jeder möchte seine KI, die effizienteste und möglicherweise ressourcenintensivste“, fährt Sasha Luccioni fort. Und das, obwohl wir noch nicht einmal wissen, ob es wirklich nützlich ist … Ist es für einfache Recherchen besser, eine generative KI zu haben, immer aktiv, immer reaktionsbereit und mit erheblichen Auswirkungen auf die Umwelt, oder eine bewährte Suchmaschine mit Lösungsvorschläge in Listenform? »
Der Krieg um künstliche Intelligenz wird zwischen den digitalen Giganten erklärt
Welche Lösung dann? Den Einsatz dieser KIs sofort einstellen? “ Nein überhaupt nichteine Nachbildung des Forschers aus Hugging Face. Es ist nicht die Aufgabe des Einzelnen, immer die größte Verantwortung zu übernehmen. Hier müssen wir von den Unternehmen ganz klar Transparenz einfordern. Und dann entsprechend handeln. »