[ad_1]
ChatGPT ist äußerst beliebt: Fragen Sie einfach und Sie erhalten eine Antwort. Doch die Technologie hat auch eine Kehrseite: Sie würde viel Energie und damit Wasser verbrauchen. Aber was genau ist das? Wir erklären es Ihnen.
„Künstliche Intelligenz wird immer intelligenter und die Möglichkeiten erweitern sich“, sagt Jelle Zuidema, Professor für natürliche Sprachverarbeitung an der Universität Amsterdam. Der Chatbot hat in letzter Zeit erheblich an Bedeutung gewonnen. „Jeder weiß jetzt, wo es zu finden ist: vom Studenten bis zum Richter und Anwalt.“
10 bis 50 Fragen: ein halber Liter
Doch obwohl die Technologie immer mehr kann, ist der Energieverbrauch ein wichtiger Punkt, den Forscher im Auge behalten. Amerikanische Universitäten in Colorado und Texas haben den Energieverbrauch künstlicher Intelligenz erforscht. Unter dem Titel ‚KI weniger durstig machen‚, haben sie mit einer Suchanfrage untersucht, wie viel Wasser Sie verbrauchen. DU
Die Ergebnisse zeigen, dass eine Sitzung mit 10 bis 50 Fragen an ChatGPT für einen Wasserverbrauch von einem halben Liter gut ist.
Wasser zur Kühlung
Wie kann eine einfache Suche über ChatGPT den Wasserverbrauch verursachen? Dies hat drei Ursachen, erklärt Bernard van Gastel, Dozent für nachhaltige Digitalisierung an der Radboud-Universität.
„ChatGPT läuft auf Servern in Rechenzentren. Diese Server müssen gekühlt werden, und dafür ist Wasser erforderlich. Dieses Wasser wird hochgepumpt und kann dann nicht mehr für andere Zwecke verwendet werden.“
Strom und Chips
„Auch der Strom, den ChatGPT verbraucht, muss mit Wasser erzeugt werden. Drittens braucht man auch Wasser, um die Chips der künstlichen Intelligenz herzustellen.“
Mit einer einfachen Suche verbrauchen Sie unbewusst Energie – und damit Wasser.
IKT macht Einsparungen zunichte
Die zunehmende Beliebtheit des Chatbots und sein hoher Energieverbrauch seien ein wichtiger Punkt, sagen die Experten.
„Trotz aller Sparmaßnahmen ist unser Verbrauch in den Niederlanden in den letzten 10 Jahren konstant geblieben“, sagt Van Gastel. „Das liegt vor allem an der starken Zunahme der IKT. Tatsächlich verpuffen alle Einsparungen, weil unser Verbrauch steigt.“
Etwas hat sich verändert
Dennoch hat sich etwas geändert. „Als ChatGPT zum ersten Mal auf den Markt kam, war der Verbrauch enorm. Die Modelle waren gigantisch“, erklärt Zuidema. Sie sind jetzt viel kleiner und wirtschaftlicher.
An mehreren Orten in den Niederlanden arbeiten wir intensiv an Innovationen im Bereich künstliche Intelligenz und Energieeffizienz. Heutige Systeme arbeiten beispielsweise mit einem universellen Sprachmodell. Das spart Energie und indirekt Wasser.
Fragen? Frag sie!
Haben Sie Fragen oder möchten Sie antworten? Senden Sie uns hier in unserem Chat eine Nachricht.
[ad_2]