De paradox van AI's milieu-impact: dit moet je weten

  • 20 sep
  • Tineke van Heijst
  • 1
  • 123
Tineke van Heijst
Green IT
  • Michiel Knops
  • Hooijdonk Sjoerd van
  • Esther Fidder

Dit is blog 16 in de blogreeks over Green IT.

Op 10 oktober 2023 verscheen een artikel met de schokkende titel ‘AI slurpt energie: Kan over vier jaar net zoveel stroom als Nederland gebruiken’. Dit artikel is gebaseerd op onderzoek van de Nederlandse consultant en onderzoeker Alex de Vries. Hij laat zien dat als kunstmatige intelligentie wereldwijd breed wordt omarmd, het energieverbruik snel zal toenemen, vergelijkbaar met dat van landen als Ierland, Nederland of Zweden. Ondanks deze dreiging kan AI ook een rol spelen in de energietransitie.

De vorige twee blogs gingen over wat AI precies is en hoe het wordt gebruikt in de erfgoedsector. In deze blog kijken we naar de impact van AI op het milieu. Want hoewel AI-modellen indrukwekkende kansen bieden voor het erfgoedveld, komt dat wel met een hoge prijs: het energieverbruik is enorm en zal de komende jaren alleen maar verder toenemen. Is het gebruik van deze technologie de prijs waard? En als we er toch voor kiezen, hoe kunnen we de impact op het milieu beperken?

Anatomie van AI

VPRO’s Tegenlicht presenteerde in juni 2023 de documentaire ‘De prijs van AI’. (1) Hierin laten de makers zien dat achter het succes van AI het gebruik van nog meer grondstoffen, nog meer data, nog meer rekenkracht en nog grotere serverparken schuilgaat. ‘Wie uitzoomt,’ ziet volgens de makers, ‘een hongerig beest dat gevoed moet worden met de allersnelste chips, enorme datasets en slecht betaalde arbeid. In de vorm van siliciummijnen, eindeloze rijen stroom slurpende servers of Syriërs die data labelen voor de volgende generatie generative AI.’ Ze vervolgen: ‘AI blijkt geen goddelijke machine, maar een industrie die bloed, zweet en metalen kost. Een systeem van extractie en uitbuiting op industriële schaal met grote gevolgen voor de aarde en de mens.’

In de documentaire komt ook het project ‘Anatomy of an AI System’ aan bod, opgezet door Kate Crawford, professor aan de New York University, en Vladan Joler, professor aan de kunstacademie van de universiteit van Novi Sad. (2) Met hun project laten ze zien dat, hoewel kunstmatige intelligentie vaak ver weg en abstract lijkt, het overal in ons dagelijks leven aanwezig is. ‘Anatomy of an AI System’ analyseert de enorme netwerken die de levenscyclus van één enkele slimme Amazon Echo-speaker ondersteunen. Een muurbreed diagram onthult wat er allemaal komt kijken bij simpele vragen als ‘Alexa, doe het licht aan’ of ‘Alexa, hoe laat is het?’. De datavisualisatie laat zien hoeveel middelen er nodig zijn voor de productie, distributie en uiteindelijk de afvoer van de speaker als deze door de consument is afgedankt.

Dat enorme systeem dat wij als gebruikers niet zien, maar dat wel nodig is om aan onze vragen en behoeften te voldoen, verbruikt enorm veel stroom. Dit komt doordat kunstmatige intelligentie veel reken- en geheugenkracht vraagt van de systemen waarop ze draaien. In het volgende deel van deze blog kijken we specifiek naar het energieverbruik in de trainingsfase en in de fase waarin het systeem door gebruikers wordt ingezet.

Trainingsfase: grootste energievreter

Voordat een slimme assistent zoals Alexa vragen kan begrijpen, moet hij een intensieve trainingsperiode doorlopen. AI-modellen vereisen uren of zelfs weken training om optimaal te presteren. De grafische processoren (CPUs) en het computergeheugen (RAM) gebruiken hierbij de meeste energie.

De training van een AI-model is een voortdurend proces waarbij ‘trial and error’ een leidende rol speelt. Het bouwen, verfijnen en verbeteren zorgt ervoor dat het algoritme steeds nauwkeuriger wordt in zijn voorspellingen. Het herhalen van de trainingsfase is nodig om het model up-to-date te houden en zijn begrip van verschillende contexten te verbeteren.

De trainingsfase van AI-modellen is de meest energie-intensieve fase. Daarom ligt hier ook de meeste nadruk op in wetenschappelijk onderzoek. Tijdens deze fase wordt een AI-model, zoals ChatGPT, gevoed met immense datasets. De aanvankelijk willekeurige parameters van het model worden voortdurend aangescherpt. Hierdoor leren grote taalmodellen uiteindelijk om specifieke woorden of zinnen nauwkeurig te voorspellen op basis van de context.

Om de omvang van deze training te begrijpen, kijken we naar een specifiek voorbeeld: een gemiddeld taalmodel zoals ChatGPT is getraind op terabytes aan gegevens en heeft 175 miljard of meer parameters. Het energieverbruik en de bijbehorende CO2-uitstoot van één trainingssessie van ChatGPT bedragen 500 ton CO2. (3) Ter vergelijking, het BLOOM-model van HuggingFace (4) [1] verbruikt tijdens de trainingsfase evenveel energie als 40 Amerikaanse huishoudens in een jaar (ongeveer 433 MWh). (5)

Inferentiefase: energieverbruik door gebruik

Na de intensieve training gaan AI-modellen naar de productieomgeving voor de inferentiefase. Voor tools zoals ChatGPT betekent dit dat de tool real-time antwoorden geeft op gebruikersvragen, waardoor het model verder wordt gevoed. Wetenschappelijk onderzoek, zoals dat van Alex de Vries, suggereert dat deze inferentiefase een aanzienlijke rol speelt in het totale energieverbruik van een AI-model. (6)

Volgens Google was de inferentiefase goed voor maar liefst 60% van het AI-gerelateerde energieverbruik tussen 2019 en 2022. Bedrijven als Amazon en NVIDIA schatten zelfs dat inferentiekosten tot 90% van de machine learning-kosten voor ingezette AI-systemen kunnen uitmaken. (7) Diverse factoren, zoals de frequentie van het hertrainen van het model en de delicate balans tussen de prestaties van het model en het energieverbruik, bepalen hoeveel energie er in deze fase nodig is.

ChatGPT, BLOOM, Bing Chat en Bard (en andere) zijn nu ongeveer een jaar beschikbaar als tools voor gebruikers. We zien nu al dat deze systemen, vooral in bepaalde sectoren, onmisbaar zijn geworden. Zo beantwoordde ChatGPT begin 2023 zo’n 195 miljoen vragen per dag. (8) Dit ging gepaard met een dagelijks energieverbruik van 564 MWh. Dit komt neer op 2,9 Wh per vraag, ongeveer evenveel als een LED-lamp die één uur brandt. Met de groeiende vraag naar AI zal ook het energieverbruik blijven toenemen.

Geheime watervoetafdruk van AI

Naast het enorme verbruik van elektriciteit verbruikt AI ook grote hoeveelheden water. Recent onderzoek van de University of Colorado Riverside en de University of Texas Arlington schat dat de datacentra van Microsoft 700.000 liter drinkwater hebben gebruikt om GPT-3 te trainen. Bovendien kost een simpele ChatGPT-sessie van 20-50 vragen al snel een halve liter water. Dat lijkt misschien niet veel, maar bedenk dat deze chatbot meer dan 100 miljoen actieve gebruikers heeft. (9)

Dit is een zorgelijke trend, vooral omdat het United Nations Environment Programme voorspelt dat het aantal mensen dat minstens een maand per jaar met watertekorten kampt, zal toenemen van een derde naar de helft van de wereldbevolking in 2030. (10)

Het moet gezegd worden dat de grote techbedrijven hier oplossingen voor proberen te vinden. Zowel Amazon, Meta, Google als Microsoft streven ernaar ‘waterpositief’ te zijn in 2030 – wat inhoudt dat ze dan meer water aanvullen dan ze produceren.

Ze lopen daarbij tegen een vervelend probleem aan: de CO2-voetafdruk en de watervoetafdruk staan vaak haaks op elkaar. Om de CO2-uitstoot te verminderen, wil je computertaken zoveel mogelijk uitvoeren als de zon schijnt. Maar dat is ook het heetste moment van de dag, waardoor je meer water nodig hebt om te koelen.

De grote uitdaging is dus om een balans te vinden tussen deze twee. Ook moet gekeken worden naar de geografische distributie van de computertaken, bijvoorbeeld door systemen te trainen op zonnige locaties waar de temperatuur lager is, zoals in het noorden van Scandinavië.

Dit onderzoek is een van de eerste onderzoeken naar het watergebruik dat gepaard gaat met AI. Hierdoor zijn de conclusies nog niet volledig gestaafd. Wat zeker is, is dat er meer onderzoek nodig is om de impact van AI op het waterverbruik beter te begrijpen.

Wat zegt de glazen bol over het energieverbruik

Alex de Vries heeft in zijn paper ‘The growing energy footprint of artificial intelligence’ (11) berekend hoe het energieverbruik zou kunnen toenemen als Google generatieve AI verwerkt in elke zoekactie. Het energieverbruik van Google zou kunnen oplopen tot 29,3 TWh per jaar, vergelijkbaar met het energieverbruik van een land als Ierland.

Zijn conclusies zijn gebaseerd op twee onderzoeken. Het ene onderzoek, uitgevoerd door SemiAnalysis, berekende dat Google voor het optimaliseren van de zoekmachine met generatieve AI 512.821 Nvidia-servers nodig zou hebben, met in totaal iets meer dan 4 miljoen videoprocessoren (GPU’s). Dit zou leiden tot een energieverbruik van 80 GWh per dag en 29,2 TWh per jaar.

Het andere onderzoek, uitgevoerd door New Street Research, komt met vergelijkbare cijfers: zij gaan uit van 400.000 benodigde AI-servers met een dagelijks gebruik van 62,4 GWh en een jaarlijks verbruik van 29,2 TWh.

Ter vergelijking: het gemiddelde energieverbruik van een Nederlands huishouden bedroeg in 2021 2.500 kWh. (12) Met de hoeveelheid energie die Google zou verbruiken, zou je tussen de 25.000 en 32.000 huishoudens een jaar lang van energie kunnen voorzien.

Waarschijnlijkheid van deze doemscenario’s

Beide onderzoeken kunnen als worst-case scenario’s worden gezien. Hoewel het gebruik van generatieve AI snel toeneemt, zien we dat er aan de productiekant grenzen zijn aan het leveren van de benodigde hardware. Bovendien zijn de financiële investeringen voor een volledige uitrol van AI zo hoog dat dit zelfs voor de grootste techbedrijven een te groot risico vormt voor hun bedrijfscontinuïteit.

Daarnaast volgen technologische ontwikkelingen elkaar snel op. De techsector beseft dat een ongebreidelde groei in energieverbruik niet haalbaar is en zet daarom volop in op efficiëntie. Dit omvat zowel verbeteringen in hardware als het ontwerp van AI-modellen, het aantal parameters waarop de modellen worden getraind en hertraind, de omvang van de datasets die worden gebruikt en de snelheid waarmee de modellen hun taken uitvoeren. Elk van deze factoren beïnvloedt het energieverbruik, wat verklaart waarom het zo moeilijk is om realistische inschattingen van het energieverbruik nu en in de toekomst te maken.

Rol van hardware-innovatie

Hoewel voorspeld wordt dat AI-modellen in de toekomst efficiënter worden, zien we hier de Jevon’s Paradox opduiken (die we ook al hebben gezien bij het efficiënter worden van dataopslag). Simpel gezegd: naarmate de efficiëntie van een technologie toeneemt, neemt ook het gebruik ervan toe. Dit leidt uiteindelijk tot een hoger energieverbruik door het groeiend aantal toepassingen.

De hoop is gevestigd op hardware-innovaties. Bedrijven zoals IBM onderzoeken hoe ze computerchips energiezuiniger kunnen maken, bijvoorbeeld door andere materialen of productieprocessen te gebruiken.

Dit brengt echter een ander probleem met zich mee binnen Green IT: wanneer er nieuwe, efficiëntere hardware beschikbaar komt, worden servers sneller vervangen. Dit leidt tot een toename van e-waste. Bovendien moeten er meer nieuwe servers worden geproduceerd, waarbij de meeste CO2-uitstoot in de productiefase zit.

Of is AI deels de oplossing van het probleem

Deze blog zou onvolledig zijn als we alleen maar de schaduwzijde van AI belichten. In de eerste twee blogs over Green IT hebben we al besproken dat Green IT twee kanten heeft: enerzijds de schaduwzijde met een groeiende CO2- en watervoetafdruk, en anderzijds de kansen die AI biedt om sneller stappen te zetten in de energietransitie en de gevolgen van klimaatverandering aan te pakken.

AI is dan ook benoemd als een belangrijk speerpunt binnen de Europese Green Deal in de strijd tegen klimaatverandering. AI kan helpen om de doelstellingen van de Green Deal te bereiken door grote hoeveelheden gegevens snel te analyseren, milieuproblemen beter te begrijpen en gericht in te grijpen. AI levert sneller en beter inzichten die helpen bij planning, besluitvorming en toezicht op milieubeleid.

Daarnaast kan AI bijdragen aan de energietransitie door energieverbruik te monitoren en te optimaliseren. Dit geldt ook voor transities in verschillende sectoren zoals landbouw, bouw, transport en de overgang naar een meer circulaire economie. In het rapport ‘The Role of Artificial Intelligence in the European Green Deal’ komen tal van voorbeelden langs. Dit rapport, geschreven in opdracht van het Europese Parlement, belicht ook de nadelen van AI en roept op tot het maken van de juiste afwegingen bij de inzet ervan. (13)

Er is dus nog veel onderzoek nodig om AI energiezuiniger te maken. Gelukkig is dit onderzoek in volle gang en worden er grote vooruitgangen geboekt. In de volgende blog gaan we in op deze onderzoeken naar Groene AI.

Blogserie

Deze blogpost is onderdeel van een serie blogposts over Green IT geschreven in opdracht van de gelijknamige netwerkgroep van het Netwerk Digitaal Erfgoed (NDE). Deze netwerkgroep monitort de ontwikkelingen rondom Green IT en de impact van de voortschrijdende digitalisering op het klimaat. Specifiek wordt daarbij gekeken naar de (toenemende) digitalisering binnen de erfgoedsector.

Eerder verschenen in deze blogserie

Thema: Introductie Green IT

1 De dubbele rol van IT in duurzaamheid

2. De noodzaak van een duurzaamheidskader voor de erfgoedsector

Thema: Dataopslag

3. De digitale databerg

4. De verborgen impact van cloudopslag

5 1% van alle data ter wereld bewaren – wat kost dat aan CO2-uitstoot?

6 De zoektocht naar duurzame alternatieven voor disks en tapes

7 Dataopslag in synthetisch DNA: coderen en decoderen in geheimschrift

8 Dataopslag in atomen: sciencefiction of toekomstige realiteit?

9 Dataopslag in glas: Superman is alvast vereeuwigd

Thema: Groene Software

10 Groene software: minder energie = minder CO2-uitstoot

11 Groene software: Meer doen als de energie schoner is

12 Groene software: Verleng het leven van je (gebruikte) IT apparatuur

13 Groene software: Meten om te weten en te verbeteren.

Thema: Kunstmatig Intelligentie

14 Introductie Kunstmatige Intelligentie: vriend of vijand?

15 AI binnen digitaal erfgoed is niet nieuw

Gebruikte bronnen:

  1. VPRO Tegenlicht, 'De prijs van AI', uitgezonden op 8 juni 2023.
  2. Crawford, K. en Joler V, “Anatomy of an AI System: The Amazon Echo As An Anatomical Map of Human Labor, Data and Planetary Resources,AI Now Institute and Share Lab, (September 7, 2018).
  3. NOS Nieuws, ‘Kunstmatige intelligentie vreet stroom, één opdracht hetzelfde als een uur een lamp aan’, gepubliceerd op 31 mei 2023.
  4. Het BLOOM-model van Huggingface is een vrij beschikbaar taalmodel dat teksten in 46 verschillende talen begrijpt. Het is ontwikkeld door de BigScience-gemeenschap.
  5. Luccioni, A. e.a., 'Estimating the Carbon Footprint of BLOOM a 176B Parameter Language Model', gepubliceerd 3 november 2022.
  6. Vries, Alex de, ‘The growing energy footprint of artificial intelligence’, In Joule 7, 2191-2194, 18 oktober 2023, Elsevier.
  7. Desislavov, R. e.a., 'Trends in AI inference energy consumption: Beyond the performance-vs-parameter laws of deep learning', In: Sustainable Computing: Informatics and Systems, volume 38, april 2023.
  8. Vries, Alex de, ‘The growing energy footprint of artificial intelligence’, In Joule 7, 2191-2194, 18 oktober 2023, Elsevier.
  9. Li, Pengfei e.a., ‘Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models’, arXiv: 2304.03271v3, gepubliceerd op 29 oktober 2023.
  10. Guerinni, Federico, ‘AI’s Unsustainable Water Use: How Tech Giants Contribute to the Global Water Shortages’, gepubliceerd op 14 april 2023.
  11. Vries, Alex de, ‘The growing energy footprint of artificial intelligence’, In Joule 7, 2191-2194, 18 oktober 2023, Elsevier.
  12. Cijfers afkomstig van de website van Milieucentraal: Gemiddeld energieverbruik in Nederland | Milieu Centraal, laatst geraadpleegd 21 november 2023.
  13. European Parliament, 'The role of Artificial Intelligence in the European Green Deal', mei 2021.

Reacties

één reactie, 23 september
  • De eerste 11 links komen uit op de nieuwe homepage van KIA en niet op de bijbehorende blog-pagina.

    Esther Fidder