Towards Data Science, eine Forschungseinrichtung, analysierte, dass OpenAI beim Betrieb von chatgpt im Januar durchschnittlich 23.364.000 Kilowatt Strom verbrauchte, was dem monatlichen Stromverbrauch von 175.000 Dänen entspricht, und sagte, dass große Sprachmodelle hohe Kosten für die Umwelt verursachen würden.
Das frühere groß angelegte Sprachmodell BLOOM nutzte 16 Nvidia A100 40-GB-GPUs, um 18 Tage lang auf der google-Cloud-Plattform zu laufen und durchschnittlich 558 Anfragen pro Stunde zu verarbeiten, und der durchschnittliche stündliche Stromverbrauch betrug 914 Kilowatt. Towards Data Science wies darauf hin, dass der Stromverbrauch von BLOOM als Referenz für ChatGPT-3 verwendet wird, da die Modellgrößen von BLOOM und ChatGPT-3 ähnlich sind und die Parameter 176b bzw. 175b betragen.
Schätzungen zufolge hatte ChatGPT im Januar dieses Jahres 590 Millionen Verbindungen. Gehen Sie davon aus, dass ChatGPT nicht mehr als 10 Mal pro Verbindung eine Abfrage durchführt und der Stromverbrauch pro Abfrage mit dem von BLOOM identisch ist, nämlich 0,00396 Kilowatt pro Stunde. Towards Data Science berechnet, dass ChatGPT im Januar dieses Jahres durchschnittlich 23.364.000 Kilowatt Strom verbrauchte, was dem monatlichen Stromverbrauch von 175.000 Dänen entspricht.
Darüber hinaus wies Towards Data Science auch darauf hin, dass OpenAI beim Training von GPT-3 1.287 Megawatt pro Stunde verbrauchte und 552 Tonnen Kohlendioxid ausstieß, was der Natur ernsthaften Schaden zufügte.
Quelle:Auf dem Weg zur Datenwissenschaft、Auf dem Weg zur Datenwissenschaft