Auf die Frage, ob ChatGPT wirklich unsere besten Absichten verfolgte, reagiert ChatGPT beunruhigend diplomatisch.
„Als KI-Sprachmodell habe ich weder Absichten noch Wünsche noch die Fähigkeit, in der realen Welt Schaden zuzufügen oder zu helfen. Mein Ziel ist es, Benutzern zu helfen“, schreibt die Maschine Millisekunden, nachdem die Frage gesendet wurde.
Und das hat es auch: Den neuesten verfügbaren Daten zufolge hat ChatGPT derzeit rund 180 Millionen Nutzer weltweit und rangiert auf Platz 17 der meistbesuchten Websites der Welt, vor der Filmdatenbank IMDB, dem professionellen Social-Media-Netzwerk Linkedin und den Streaming-Diensten Twitch und Netflix.
Doch all dieser Verkehr ist teuer – finanziell und ökologisch.
Aktuelle Untersuchungen der University of Washington zeigen, dass die Hunderte Millionen Anfragen, die auf der Plattform von Open AI protokolliert werden, die Energiemenge von 33.000 US-Haushalten verbrauchen – etwa eine Gigawattstunde pro Tag.
Berichten zufolge verbraucht eine einzelne GPT-Abfrage 15-mal mehr Energie als eine google-Suchanfrage.
Die Allgegenwärtigkeit der Plattform hat die künstliche Intelligenz zu Recht oder zu Unrecht fest in den kulturellen Zeitgeist unserer Arbeits-, Spiel- und, nun ja, Lebensweise katapultiert.
Als ChatGPT Anfang 2022 auf den Markt kam, gab es nichts Vergleichbares und die Kombination aus beeindruckender Technologie und komfortabler Finanzierungspipeline ließ die Nutzerzahlen in die Höhe schießen.
Aber jetzt haben die großen Technologieunternehmen deutlich aufgeholt; Microsoft Bing, Google Bard, OpenAI Playground, Amazon CodeWhisperer und GitHub Copilot sind allesamt Multimilliarden-Dollar-Projekte einiger der größten Branchengrößen.
Das Ergebnis der Verbreitung ist, dass KI überall ist; Eine McKinsey-Studie, die letztes Jahr in Nordamerika und Europa durchgeführt wurde, ergab, dass 79 Prozent der 1.648 Befragten am Arbeitsplatz oder zu Hause in gewissem Maße mit KI in Berührung gekommen waren.
Bis 2027 könnte der weltweite KI-bezogene Stromverbrauch basierend auf der Prognose der KI-Serverproduktion jährlich um 85 bis 134 Terawatt steigen.
Das entspricht ungefähr dem jährlichen Stromverbrauch von Argentinien, den Niederlanden und Schweden und etwa 0,5 Prozent des aktuellen weltweiten Stromverbrauchs.
Da der KI-Boom in vollem Gange ist und keine Anzeichen einer Verlangsamung zu erkennen ist, wie rechnen wir mit seinen potenziell katastrophalen Anforderungen an unsere Treibstoffressourcen?
Die einfache Antwort lautet: Wahrscheinlich nicht.
Alex de Vries, ein Ph.D. Kandidat an der Vrije Universiteit Amsterdam, schrieb letztes Jahr in einem Papier, in dem er den Energieverbrauch von KI untersuchte, dass mit steigender Nachfrage nach KI-Diensten auch der Energieverbrauch dadurch weiter steigen wird, ungeachtet der Bemühungen, dies durch Effizienzsteigerungen auszugleichen.
Daryl Elfield, ein KPMG-Partner in Großbritannien, der sich auf ESG-Technologie und -Daten spezialisiert hat, erzählt Stadt AM dass nicht alle generativen KI-Systeme gleich sind und dass das Verständnis dafür der Schlüssel zur Messung des Energiebedarfs jedes einzelnen Systems ist.
„Es geht mehr darum, wie wir verbrauchen und wer es verbrauchen wird, und eine Reihe von Untersuchungen zeigt, dass unsere Nachfrage nach generativen KI-Plattformen die Fähigkeit der Anbieter übersteigt, diese durch den Einsatz nachhaltiger Stromarten zu decken“, sagte er.
„Aber der andere sagt, dass unser Ansatz, wie wir allgemeine KI nutzen, diese Kurve ziemlich schnell abflachen wird.“
Er argumentiert, dass die energieintensivste Form der Nutzung von einem Benutzer auf einer Plattform ausgeht, beispielsweise durch die Interaktion mit einem Large Language Model (LLM) wie einem ChatGPT über eine Anwendungsprogrammierschnittstelle – ein Mechanismus, der es unterschiedlicher Software ermöglicht, miteinander zu kommunizieren – Das heißt, eine Wetter-App auf Ihrem Telefon kontaktiert eine Wetterdatenbank, um das Wetter auf Ihrem Bildschirm anzuzeigen.
Der Trick zur Reduzierung der KI-Energie könnte darin bestehen, sich stärker auf Plattformen wie Microsoft CoPilot oder Google Bard zu verlassen, die die KI-Funktion in ihre Plattform integrieren, sodass die Verbindung nicht überbrückt werden muss.
„Die Auswirkungen dieser Änderung auf den Energieverbrauch sind enorm, aber welcher dieser Trends zutreffender sein wird, ist zum jetzigen Zeitpunkt schwer zu sagen.“
Er fügte hinzu, dass die Art und Weise, wie wir den Energieverbrauch von KI wie ChatGPT betrachten, ebenfalls fehlerhaft ist und dass bis zu 60 Prozent des gesamten Energiebedarfs des Programms während der Vorverarbeitungs-, Entwicklungs- und Trainingsphasen verbraucht werden, verglichen mit 40 Prozent bei der Implementierung auf Benutzeranfragen antworten.
Globales Beratungsunternehmen KPMGs CEO-Ausblick 2023 Bericht veranschaulicht die Wissenslücke zwischen künstlichen Intelligenzsystemen und deren Auswirkungen auf die Umwelt.
Ethik und Kosten wurden von 63 Prozent der befragten Geschäftsführer als Herausforderungen für die Einführung generativer KI genannt, während ein Viertel angab, dass die Komplexität der Dekarbonisierung von Lieferketten das größte Hindernis für die Umsetzung von Netto-Null-Lösungen sei.
Lieferketten sind einer der bewährten Anwendungsfälle für die Leistungsfähigkeit der generativen KI. Große multinationale Unternehmen wie Unilever, Siemens und Maersk setzen die Technologie ein, um Systeme zu rationalisieren.
Aber wenn Entscheidungsträger die Nachfrage nach generativer KI, die auf diese Weise eingesetzt wird, nicht schätzen, ist es kein Wunder, dass sie weiterhin Fragen zu ihrem ökologischen Fußabdruck aufwirft.