Het energieverbruik van AI is een terugkerend nieuwsonderwerp. De cijfers die rondgaan zijn vaak indrukwekkend, maar zonder context lastig te plaatsen. Op deze pagina zetten we de belangrijkste bouwstenen op een rij: wat verbruikt nu eigenlijk wat, waarom verschilt het tussen modellen, en wat kunt u als gebruiker zelf met die informatie?
Training versus inference
Bij AI is het cruciaal om twee fasen te onderscheiden:
- Training: het éénmalige proces waarbij een model wordt opgebouwd uit een grote hoeveelheid data. Dit gebeurt in datacenters met duizenden gespecialiseerde processors die wekenlang draaien.
- Inference: elk gebruik van het model nadat het getraind is — iedere prompt die u typt, ieder gegenereerd plaatje, iedere samenvatting.
Training is een grote piek in energieverbruik op één moment in de tijd. Inference is veel kleiner per gebruik, maar wordt miljarden keren herhaald. Wanneer een artikel een spectaculair getal presenteert, is de eerste vraag dus altijd: gaat het over één trainingsrun, of over al het inference-gebruik samen, en over welke periode?
Waar grote getallen vandaan komen
Veelgenoemde cijfers vallen meestal in een van deze categorieën:
- Energie per trainingsrun — een vergelijking met “X huishoudens per jaar”. Dit is een eenmalige uitgave, maar wordt soms gepresenteerd alsof het continu doorloopt.
- Geschat verbruik per prompt — varieert sterk tussen modellen en taken. Een korte chatreactie kost orde van grootte minder dan een lang gegenereerd plaatje of een video.
- Datacenter-totalen — bedrijven publiceren stroomverbruik over hun hele infrastructuur, niet alleen AI. Schattingen welk percentage AI is, lopen uiteen.
- Watergebruik voor koeling — sommige datacenters gebruiken verdamping; andere niet. Cijfers zonder context zijn moeilijk vergelijkbaar.
Bij elk artikel helpt het om te vragen: over welke periode, welk model, en welke meetmethode?
Waarom modellen onderling enorm verschillen
Niet elke AI-tool kost evenveel energie per gebruik. De factoren die het verschil bepalen:
- Modelgrootte: grotere modellen (meer parameters) gebruiken meer rekentijd per prompt. Een kleiner, gespecialiseerd model kan voor een specifieke taak vele malen efficiënter zijn dan een groot algemeen model.
- Soort taak: tekst genereren is goedkoper dan beeld; beeld is goedkoper dan video.
- Optimalisaties: technieken als kwantisering en distillatie verlagen het energieverbruik per prompt zonder dat de kwaliteit veel daalt.
- Hardware: nieuwere generaties chips zijn aanzienlijk efficiënter per berekening dan voorgaande generaties.
- Datacenterlocatie: in regio’s met veel hernieuwbare energie is de CO2-impact per kWh lager dan elders.
Worked example: een vergelijking in perspectief
Stel: u stuurt op een werkdag tien chatprompts naar een groot taalmodel, en laat daarnaast twee afbeeldingen genereren. Het is verleidelijk om dat te vergelijken met “X kilometer autorijden”. Maar zo’n vergelijking is meestal misleidend, om twee redenen:
- De cijfers per prompt verschillen sterk per model en kunnen jaarlijks fors dalen door efficiëntere generaties.
- De marginale impact van uw extra prompt hangt af van of het datacenter draait op gas, kernenergie of zon en wind — iets wat u niet zelf kunt sturen.
Een nuttiger benadering: in plaats van te proberen elk gebruik in fossiele kilometers om te rekenen, vraag uzelf bij elk gebruik of de output uw moeite waard is. Voor een simpele zoekvraag is een traditionele zoekmachine vaak voldoende. Voor een complexe synthese kan AI net dat verschil maken.
Wat u als gebruiker kunt doen
- Schaal bewust: kies een tool die past bij de taak. Een klein, snel model voor korte taken; een groot model alleen waar dat echt nodig is.
- Cache uw eigen werk: bewaar antwoorden die u vaker nodig heeft, zodat u niet vier keer dezelfde vraag hoeft te stellen.
- Wees specifiek: een goede prompt levert in één generatie wat u nodig heeft. Vage prompts veroorzaken meerdere iteraties.
- Generatie van beeld en video: beperk u tot wat u echt gebruikt. Beeldgeneratie kost grof gezegd ruim een orde van grootte meer dan tekst.
- Stel realistische verwachtingen aan zelf: u alleen lost het systeemvraagstuk niet op — maar onnodig gebruik vermijden helpt wel.
Wat de sector doet (en de open vragen)
Op systeemniveau wordt op meerdere fronten gewerkt aan verlaging van het energieprofiel van AI:
- Investeringen in efficiëntere chiparchitecturen, zoals AI-specifieke processors die meer doen per watt.
- Lange-termijncontracten voor stroom uit hernieuwbare bronnen, en in toenemende mate uit kernenergie.
- Nieuwe trainingstechnieken die met minder data en minder rekenkracht een vergelijkbare kwaliteit halen.
- Modeldistillatie: een kleiner model leren wat een groot model kan, voor inference-gebruik.
Tegelijk zijn er open vragen: of efficiëntiewinst optelt of juist tot meer gebruik leidt (rebound-effect), hoe regulering mee gaat schalen, en welke transparantie aanbieders bieden over hun werkelijke verbruik. Deze vragen worden actief gevolgd in beleidskringen en onderzoeksinstituten.
Veelvoorkomende misverstanden
- “Eén ChatGPT-prompt verbruikt evenveel als …” — vaak gebaseerd op verouderde of geschatte cijfers, en zelden vergelijkbaar tussen bronnen.
- “AI is per definitie slecht voor het klimaat.” — AI kan ook bijdragen aan energiebesparing, bijvoorbeeld door netwerken slimmer aan te sturen of door huizen efficiënter te verwarmen. Het netto-effect is een open onderzoeksvraag.
- “Lokaal draaien is altijd groener.” — Niet automatisch. Een grote thuiscomputer die een klein model continu draait kan inefficiënter zijn dan een gedeeld datacenter op groene stroom.
- “Watergebruik is hetzelfde als waterverbruik.” — Sommige datacenters circuleren water, andere verdampen het. Vergelijkingen vereisen aandacht voor de meetdefinitie.
Verder lezen
Voor de techniek achter training en inference, raadpleeg de begrippenlijst. Voor actualiteiten rond datacenters en energiecontracten verwijzen wij naar onze nieuwspagina. En voor de vraag welke tool past bij welke taak: zie ons vergelijkingsraamwerk.