De waarheid over AI’s milieu-impact

De waarheid over AI’s milieu-impact

Plot twist: AI vernielt de planeet helemaal niet

Terwijl klimaatactivisten en techpessimisten de afgelopen maanden schreeuwden dat AI onze planeet zou vernietigen, heeft Google stilletjes iets gedaan wat veel belangrijker is: ze hebben exact uitgerekend hoeveel energie hun AI werkelijk gebruikt. En de cijfers? Die slaan alles wat we dachten compleet omver.

De onthullende cijfers

Een gemiddelde Gemini tekst-prompt gebruikt maar 0,24 watt-uur energie, stoot 0,03 gram CO2 uit, en gebruikt 0,26 milliliter water. Dat komt neer op:

  • 5 druppels water per AI-vraag
  • Evenveel energie als 8 seconden TV kijken
  • Minder CO2 dan een enkele ademhaling

Maar het wordt nog gekker: in de afgelopen 12 maanden werd Gemini 33x energiezuiniger en 44x CO2-vriendelijker, terwijl de antwoorden veel beter werden.

Waarom andere cijfers zo verkeerd zijn

Het probleem met alle paniekzaaierij? De meeste studies meten alleen de AI-chip zelf. Dat is alsof je het brandstofverbruik van een auto meet, maar de motor, airco en lichten negeert.

Het volledige plaatje

  • Koelsystemen - die datacenters koel houden
  • Idle servers - machines die klaarstaan voor piekverkeer
  • CPU en RAM - niet alleen de AI-processors
  • Datacenter overhead - van stroomverdeling tot beveiliging
  • Werkelijke chip gebruik - niet theoretische maximum prestaties

Wanneer je alleen de actieve TPU en GPU consumptie meetelt, krijg je 0,10 Wh energie per prompt. Maar dat is een "optimistisch scenario" dat de werkelijke operationele voetafdruk zwaar onderschat.

De geheime wapens van Google

Hoe kreeg Google deze waanzinnige efficiëntiewinsten voor elkaar? Door letterlijk elke laag van hun AI-stack te optimaliseren:

Slimmere architecturen

Gemini draait op Transformer architectuur die 10-100x efficiënter is dan vorige generatie taalmodellen. Plus Mixture-of-Experts modellen die alleen de relevante delen van het netwerk activeren.

Custom hardware

Hun nieuwste TPU "Ironwood" is 30x energiezuiniger dan hun eerste publieke TPU. Ze ontwerpen hardware en software samen, zodat alles perfect op elkaar afgestemd is.

Slimme algoritmes

Technieken zoals "speculative decoding" zorgen ervoor dat een klein model voorspellingen doet die snel geverifieerd worden door een groot model. Veel efficiënter dan het grote model alles stap-voor-stap laten doen.

Ultra-efficiënte datacenters

Google's datacenters draaien met een gemiddelde Power Usage Effectiveness (PUE) van 1.09 - een van de beste scores in de industrie.

De volledige waarheid

Hier wordt het interessant. Google geeft toe dat hun "optimistische" methode (alleen AI-chips tellen) 0,10 Wh per prompt geeft. Hun complete methode komt uit op 0,24 Wh. Ze geloven dat hun uitgebreide methodologie "de meest complete weergave is van AI's algehele voetafdruk".

Dat betekent dat de meeste "AI verbruikt te veel energie" studies waarschijnlijk nog steeds te hoog schatten, omdat ze inefficiënte systemen als uitgangspunt nemen.

Wat dit betekent voor de toekomst

Dit is niet zomaar een technisch rapport - het is een statement. Terwijl iedereen discussieert of we AI moeten beperken om de planeet te redden, toont Google aan dat we gewoon slimmere AI moeten maken.

Google investeert zwaar in het verder verlagen van energie- en waterverbruik per prompt, en deelt hun methodologie om industrie-brede vooruitgang te stimuleren.

De keerzijde

Natuurlijk is er altijd een keerzijde. Deze cijfers gelden specifiek voor Google's geoptimaliseerde systemen. Andere AI-bedrijven gebruiken mogelijk veel meer energie. En naarmate AI-gebruik groeit, stijgt het totale verbruik nog steeds - zelfs als elke individuele prompt efficiënter wordt.

De bottom line

Misschien moeten we stoppen met paniek zaaien over AI's energieverbruik en beginnen met het stellen van de juiste vraag: hoe maken we AI zo efficiënt mogelijk?

Google laat zien dat het kan. 33x efficiënter in één jaar is niet incrementele verbetering - dat is een revolutie.

De vraag is nu: gaan andere AI-bedrijven deze transparantie en efficiëntie volgen, of blijven ze in het donker opereren terwijl Google de standaard zet?

Want als één AI-prompt echt maar 5 druppels water kost, dan is het probleem niet de technologie. Het probleem is hoe slecht de meeste bedrijven hem implementeren.

Deel

© 2025, de AI Podcast.