Beliebte Large Language Models (LLMs) wie z ChatGPT von OpenAI Und Googles Barde sind energieintensiv und erfordern riesige Serverfarmen, um genügend Daten bereitzustellen, um die leistungsstarken Programme zu trainieren. Das Kühlen derselben Rechenzentren macht auch die KI-Chatbots unglaublich durstig. Neue Forschung schlägt Training für vor GPT-3 allein verbrauchte 185.000 Gallonen (700.000 Liter) Wasser. Laut der neuen Studie läuft der Gesprächsaustausch eines durchschnittlichen Benutzers mit ChatGPT im Grunde darauf hinaus, eine große Flasche frisches Wasser auf den Boden zu kippen. Angesichts der Chatbots beispiellose Popularitätbefürchten Forscher, dass all diese verschütteten Flaschen einen beunruhigenden Tribut an der Wasserversorgung fordern könnten, insbesondere inmitten historische Dürren und drohende Umweltunsicherheit in den USA.
Forscher der University of Colorado Riverside und der University of Texas Arlington veröffentlichten die KI-Wasserverbrauchsschätzungen in einem vorab gedruckten Papier mit dem Titel „KI weniger durstig machen.‚“ Die Autoren fanden heraus, dass die Menge an klarem Süßwasser, die zum Trainieren von GPT-3 erforderlich ist, der Menge entspricht, die für das Trainieren von GPT-3 erforderlich ist den Kühlturm eines Kernreaktors füllen. OpenAI hat die für das Training von GPT-3 erforderliche Zeit nicht offengelegt, was die Schätzungen der Forscher erschwert, aber Microsoft, das eine mehrjährige, mehrere Milliarden Dollar schwere Partnerschaft mit dem KI-Startup eingegangen ist und Supercomputer für das KI-Training gebaut hat, sagt dass sein neuester Supercomputer, der eine umfangreiche Kühlvorrichtung erfordern würde, 10.000 Grafikkarten und über 285.000 Prozessorkerne enthält, was einen Einblick in das enorme Ausmaß des Betriebs hinter künstlicher Intelligenz gibt. Diese riesige Anzahl von Gallonen könnte Batteriezellen für 320 Tesla produzieren, oder anders ausgedrückt, ChatGPT, das nach GPT-3 kam, müsste eine 500-Milliliter-Wasserflasche „trinken“, um einen grundlegenden Austausch mit einem Benutzer abzuschließen bestehend aus etwa 25-50 Fragen.
Die gigantische Menge an Gallonen, die zum Trainieren des KI-Modells benötigt werden, setzt auch voraus, dass das Training in Microsofts hochmodernem US-Rechenzentrum stattfindet, das speziell für OpenAI in zweistelliger Millionenhöhe gebaut wurde. Wenn die Daten im weniger energieeffizienten asiatischen Rechenzentrum des Unternehmens trainiert würden, könnte der Wasserverbrauch laut Bericht dreimal höher sein. Die Forscher gehen davon aus, dass dieser Wasserbedarf bei neueren Modellen wie dem noch weiter steigen wird kürzlich veröffentlichtes GPT-4die auf einen größeren Satz von Datenparametern angewiesen sind als ihre Vorgänger.
„Der Wasserfußabdruck von KI-Modellen kann nicht länger unter dem Radar bleiben“, sagten die Forscher. „Der Wasserfußabdruck muss als Teil der gemeinsamen Bemühungen zur Bekämpfung der globalen Wasserprobleme als Priorität angegangen werden.“
Wie verwenden Chatbots Wasser?
Bei der Berechnung des Wasserverbrauchs von KI unterscheiden die Forscher zwischen „Wasserentnahme“ und „Verbrauch“. Das erste Beispiel ist die physische Entnahme von Wasser aus einem Fluss, See oder einer anderen Quelle, während Verbrauch sich speziell auf den Verlust von Wasser durch Verdunstung bezieht, wenn es in Rechenzentren verwendet wird. Die Forschung zum Wasserverbrauch von KI konzentriert sich hauptsächlich auf den Verbrauchsteil dieser Gleichung, bei dem das Wasser nicht recycelt werden kann.
Jeder, der schon einmal ein paar Sekunden in einem Serverraum eines Unternehmens verbracht hat, weiß, dass man zuerst einen Pullover einpacken muss. Serverräume werden kühl gehalten, normalerweise zwischen 50 und 80 Grad Fahrenheit, um Fehlfunktionen der Geräte zu vermeiden. Die Aufrechterhaltung dieser idealen Temperatur ist eine ständige Herausforderung, da die Server ihre elektrische Energie selbst in Wärme umwandeln. Kühltürme wie die unten abgebildeten werden oft eingesetzt, um dieser Hitze entgegenzuwirken und die Räume durch Verdunstung von kaltem Wasser auf ihrer idealen Temperatur zu halten.
Kühltürme erledigen die Arbeit, aber sie benötigen dafür immense Mengen an Wasser. Die Forscher schätzen, dass für jede verbrauchte Kilowattstunde in einem durchschnittlichen Rechenzentrum etwa eine Gallone Wasser verbraucht wird. Es kann auch nicht jede Art von Wasser verwendet werden. Rechenzentren schöpfen aus sauberen Süßwasserquellen, um Korrosion oder Bakterienwachstum zu vermeiden, die mit Meerwasser einhergehen können. Süßwasser ist auch für die Feuchtigkeitsregulierung in den Räumen unerlässlich. Die Forscher machen Rechenzentren auch für das Wasser verantwortlich, das zur Erzeugung der hohen Strommengen benötigt wird, die sie verbrauchen, was die Wissenschaftler als „indirekten Wasserverbrauch außerhalb des Standorts“ bezeichnen.
Bilder des Google-Rechenzentrums
Probleme mit dem Wasserverbrauch sind nicht auf OpenAI- oder KI-Modelle beschränkt. Im Jahr 2019 forderte Google mehr als an 2,3 Milliarden Liter Wasser für Rechenzentren in nur drei Staaten. Das Unternehmen verfügt derzeit über 14 Rechenzentren über ganz Nordamerika verteilt, die es für die Google-Suche, seine Suite von Arbeitsplatzprodukten und in jüngerer Zeit für seine verwendet LaMDa Und Barde große Sprachmodelle. Allein LaMDA könnte laut dem jüngsten Forschungsbericht Millionen Liter Wasser zum Trainieren benötigen, größer als GPT-3, da mehrere der durstigen Rechenzentren von Google in heißen Bundesstaaten wie Texas untergebracht sind; Die Forscher machten jedoch einen Vorbehalt mit dieser Schätzung und nannten sie einen „ungefähren Referenzpunkt“.
Abgesehen von Wasser benötigen neue LLMs auch eine erstaunliche Menge an Strom. Ein Stanford-KI-Bericht, der letzte Woche veröffentlicht wurde Unterschiede im Energieverbrauch zwischen vier prominenten KI-Modellen, Schätzungen zufolge setzte GPT-3 von OpenAI während seines Trainings 502 Tonnen Kohlenstoff frei. Insgesamt könnte die zum Trainieren von GPT-3 benötigte Energie das Haus eines durchschnittlichen Amerikaners Hunderte von Jahren lang mit Strom versorgen.
„Das Rennen um Rechenzentren, um mit allem Schritt zu halten, ist ziemlich hektisch“, sagte Kevin Kent, CEO von Critical Facilities Efficiency Solution, in einem Interview mit der Zeit. „Sie können nicht immer die umweltfreundlichsten Entscheidungen treffen.“
Der Klimawandel und sich verschlimmernde Dürren könnten die Besorgnis über den Wasserverbrauch von KI verstärken
Schon das World Economic Forum Schätzungen rund 2,2 Millionen US-Bürgern mangelt es an Wasser und grundlegenden Inneninstallationen. Weitere 44 Millionen leben mit „unzureichenden“ Wassersystemen. Forscher befürchten, dass eine Kombination aus Klimawandel und wachsender US-Bevölkerung diese Zahlen bis zum Ende des Jahrhunderts noch schlimmer machen wird. Bis 2071 Stanford Schätzungen Fast die Hälfte der 204 Süßwasserbecken des Landes wird den monatlichen Wasserbedarf nicht decken können. Berichten zufolge könnten viele Regionen ihre Wasserversorgung in den nächsten 50 Jahren um ein Drittel reduzieren.
Steigende Temperaturen, die teilweise durch menschliche Aktivitäten angeheizt werden, haben dazu geführt, dass der amerikanische Westen seine Temperatur registriert schlimmste Dürre seit 1000 Jahren was auch das Süßwasser bedroht, obwohl die jüngsten Überschwemmungsregen dazu beigetragen haben, einige schlimme Bedenken abzuwehren. Wasserstände an Stauseen wie Lake Mead sind so weit zurückgegangen, dass sie es haben Freigelegte jahrzehntealte menschliche Überreste. All dies bedeutet, dass der hohe Wasserbedarf der KI wahrscheinlich zu einem wachsenden Streitpunkt werden wird, insbesondere wenn die Technologie in immer mehr Sektoren und Dienste eingebettet wird. Die Datenanforderungen für LLMs werden immer größer, was bedeutet, dass Unternehmen Wege finden müssen, um die Wassereffizienz ihrer Rechenzentren zu steigern.
Forscher sagen, dass es einige relativ klare Möglichkeiten gibt, den Wasserpreis von KI zu senken. Zunächst einmal spielt es eine Rolle, wo und wann KI-Modelle trainiert werden. Außentemperaturen können beispielsweise die Wassermenge beeinflussen, die zum Kühlen von Rechenzentren benötigt wird. KI-Unternehmen könnten Modelle hypothetisch um Mitternacht, wenn es kühler ist, oder in einem Rechenzentrum mit besserer Wassereffizienz trainieren, um Wasser zu sparen, richtig. Chatbot-Benutzer hingegen könnten sich dafür entscheiden, die Module während „wassereffizienter Stunden“ einzusetzen, ähnlich wie die kommunalen Behörden die Verwendung von Geschirrspülern außerhalb der Geschäftszeiten fördern. Dennoch wird jede dieser Änderungen auf der Nachfrageseite eine größere Transparenz seitens der Technologieunternehmen erfordern, die diese Modelle entwickeln, was den Forschern zufolge besorgniserregend knapp ist.
„Wir empfehlen Entwicklern von KI-Modellen und Betreibern von Rechenzentren, transparenter zu sein“, schreiben die Forscher. „Wann und wo werden die KI-Modelle trainiert? Was ist mit den KI-Modellen, die in Colocation-Rechenzentren oder öffentlichen Clouds von Drittanbietern trainiert und/oder eingesetzt werden? Solche Informationen werden für die Forschungsgemeinschaft und die breite Öffentlichkeit von großem Wert sein.“
Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung über an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden zu Die besten kostenlosen KI-Kunstgeneratoren Und Alles, was wir über ChatGPT von OpenAI wissen.