Onderzoek: 20 tot 50 vragen aan ChatGPT gelijk aan halve liter water

AI-technologie als ChatGPT is bijzonder interessant, maar het brengt wel een grote milieuvoetafdruk met zich mee, zo waarschuwde Earth.org recent.

Volgens de site – die zich voornamelijk baseert op schattingen uit de losse pols en onderzoek van de University van Californië, Riverside – stoot ongeveer ChatGPT 8,4 ton CO2 per jaar uit, wat niet meer is dan ruwweg twee personen. Echter, deze ramingen gaan uit van de begintijd van ChatGPT, toen er nog misschien 16 GPU’s werden ingezet. Dat aantal zal nu eerder in de tienduizenden zitten. Bovendien gaat het hierbij alleen om het draaien van ChatGPT, niet om het trainen van een model. Aan de andere kant maakt de energiebron veel uit, waardoor exacte cijfers over de CO2-uitstoot moeilijk te geven zijn.

Water

Met water lijkt dat anders te liggen, en daar wordt wel flink de noodklok over geslagen. Een onderzoek van de Universiteit van Californië, Riverside, bracht volgens Earth.org de aanzienlijke watervoetafdruk van AI-modellen als ChatGPT-3 en 4 aan het licht. De studie meldt dat Microsoft ongeveer 700.000 liter zoetwater heeft gebruikt tijdens de training van GPT-3 in zijn datacenters. Dat staat volgens het artikel gelijk aan de hoeveelheid water die nodig is om 370 auto’s van BMW of 320 Tesla’s te produceren. Het trainingsproces is hier de hoofdschuldige: Daarbij wordt grote hoeveelheden energie gebruikt en omgezet in warmte, wat vraagt om een enorme koelcapaciteit. Ook tijdens het gebruik zelf is ChatGPT niet bepaald zuinig. Voor een eenvoudige conversatie van 20-50 vragen is het waterverbruik gelijk aan een fles van 500 ml, waardoor de totale watervoetafdruk voor inferentie aanzienlijk is gezien de miljarden gebruikers.

“Naarmate taalmodellen in omvang blijven toenemen, is het steeds noodzakelijker te onderzoeken hoe de negatieve impact ervan op het milieu kan worden beperkt om een duurzame weg voorwaarts in te slaan”, aldus Earth.org

Mobiele versie afsluiten