Obwohl einige Experten in generativen Modellen wie GPT-4 oder midjourney viele Bedrohungen für die Menschheit sehen, beachtet nicht jeder einen wichtigen Faktor – es ist möglich, dass KI und Menschen bald um normales Süßwasser konkurrieren. Laut The Register wird es laut Wissenschaftlern zunehmend erforderlich sein, das Rechenzentrum zu kühlen.
Das Problem hat die Aufmerksamkeit von Wissenschaftlern der University of California in Riverside und der University of Texas in Arlington auf sich gezogen. Die Forscher schätzen, dass das Erlernen eines GPT-3-Sprachmodells den Verbrauch von etwa 700.000 Litern Wasser erfordert – die gleiche Menge, die für die Produktion von 320 Tesla-Elektrofahrzeugen aufgewendet wurde. Darüber hinaus erfordert ein einfacher Dialog mit 20–50 chatgpt-Fragen etwa 500 ml Wasser, und mit der Entwicklung der KI wird der Wasserverbrauch solcher Systeme enorme Ausmaße erreichen – wenn nicht im Vorfeld Maßnahmen zur Optimierung der Kühlung des Rechenzentrums ergriffen werden.
Gleichzeitig versprechen Experten, dass bis zur Mitte des Jahrhunderts weite Gebiete in den Vereinigten Staaten unter Dürre leiden werden. Schon jetzt sind Datenzentren äußerst zurückhaltend bei der Weitergabe von Informationen über den Wasserverbrauch, nutzen unterschiedliche Zählsysteme und versuchen, wie google, Spuren vor Gericht zu verbergen. Daher müssen Wissenschaftler in ihren Berechnungen überwiegend indirekte Daten verwenden. Es wird jedoch argumentiert, dass Sie das von SPX Cooling Technologies entwickelte Modell überall verwenden können und so feststellen können, wie viel Wasser für das Training und den Betrieb von Sprachmodellen aufgewendet wird.
Laut der Dell’Oro Group liegt das Problem jedoch nicht wirklich in der KI – er verspürt keinen echten Durst. Zunächst geht es um die Rationalisierung thermischer Kontrollsysteme. Selbst dort, wo sich das KI-Rechenzentrum befindet, kann sich der Wasserverbrauch erheblich ändern. Viele Rechenzentren nutzen keine Flüssigkeitskühlung, sondern andere Optionen. Letzten Monat sprach Microsoft beispielsweise über den Einsatz von Zero-Water-Systemen im Rechenzentrum in Arizona – diese verbrauchen jedoch mehr Energie.
Es stehen viele Optionen zur Verfügung, von Luft über Wasser bis hin zu Tauchkühlung, jede mit ihren eigenen Vor- und Nachteilen. Allerdings bieten Anbieter wie Submer und LiquidStack Immersionskühlsysteme an, die einen PUE-Wert von weniger als 1,05 bieten, während luftgekühlte Systeme normalerweise nur 1,4–1,5 bieten.
Die wissenschaftliche Arbeit liefert nicht nur Möglichkeiten zur Optimierung von Kühlsystemen, sondern auch Empfehlungen für Rechenzentren, grundsätzlich weniger Wärme zu erzeugen. Wir sprechen insbesondere davon, dass Rechenzentren an Orten mit kühlem Klima statt in heißen asiatischen Ländern gebaut werden sollten und einige Aufgaben am Nachmittag erledigt werden können, wenn es kühler wird. Obwohl dies den Einsatz von Solarzellen einschränkt, liegt die naheliegende Schlussfolgerung darin, zur Energiespeicherung tagsüber Backup-Batterien anstelle von Generatoren zu verwenden.
Wissenschaftler glauben, dass der Schlüssel zur effizienten Nutzung von Energiesystemen und Kühlung in einer größeren Transparenz des Rechenzentrums liegt. In Europa werden beispielsweise Änderungen der Energieeffizienzrichtlinie überarbeitet, die alle außer den kleinsten Rechenzentren dazu zwingen werden, über viele Parameter zu berichten. Wie ein Wissenschaftler feststellte: „Die Rechenzentrumsbranche ist so geheimnisvoll, dass es manchmal schwierig ist, die richtigen Daten für die Modellerstellung zu erhalten.“ Allerdings befürchten Wissenschaftler, dass Hyperscaler möglicherweise nicht genug Zeit haben, um ein qualitativ hochwertiges Reporting umzusetzen – die KI-Branche entwickelt sich zu schnell.
Quelle: