opinie

AI zal haar energieprobleem niet zelf oplossen

Hoofd AI Imec

Van datacenters met ingebouwde kernreactoren tot een AI-gedreven speurtocht naar ondergrondse CO₂-reservoirs: de techindustrie speurt zich te pletter naar creatieve oplossingen voor de onstilbare energiehonger van nieuwe AI-toepassingen. Steven Latré, hoofd AI bij Imec, stelt voor om het probleem van de inefficiëntie van AI bij de wortel aan te pakken.

Aan het begin van de herfst leek het er nog op dat AI een wereldwijde revival van kernenergie zou teweegbrengen. Google wilde zes à zeven kerncentrales kopen om zijn AI-datacentra van stroom te voorzien, Amazon en Meta kondigden datacenters aan die met kernenergie aangedreven zouden worden en Microsoft besloot het Three Mile Island-project in Pennsylvania weer tot leven te wekken. Kernenergie leek de ultieme troefkaart om de ontsporende energievraag van AI te kunnen opvangen, en toch op het pad naar netto nuluitstoot te blijven.

Intussen blijken die plannen moeilijker uitvoerbaar dan gehoopt en is de techindustrie opnieuw zoekende. Bij de ontvangst van zijn eredoctoraat in Hongkong stelde Jensen Huang, de CEO van de AI-chipreus Nvidia, dat AI het probleem zélf zal oplossen. Zo zal AI helpen om reservoirs te vinden waarin we CO₂ ondergronds kunnen opslaan, of om nieuwe ontwerpen van windturbines te maken, of nieuwe materialen voor energieopslag te vinden. Zijn we gered?

Advertentie

Voor relatief eenvoudige taken op de smartphone laten we als gebruikers, vaak onbewust, gigantische AI-modellen draaien.

Het Internationaal Energieagentschap (IEA) berekende dat datacenters, cryptomunten en AI samen tegen 2026 verantwoordelijk zullen zijn voor zowat 4 procent van de wereldwijde vraag naar energie. Dat is ruwweg de hoeveelheid elektriciteit die Japan gebruikt, en een verdubbeling ten opzichte van 2022.

Die enorme nood aan energie zit enerzijds in het trainen van steeds grotere modellen en anderzijds in datacenters, waar gebruikers bij elke ‘prompt’ rekenopdrachten en datatrafiek veroorzaken. Basisregel: hoe meer generatieve AI in een toepassing, hoe groter het verbruik. In veel gevallen is het met een kanon op een mug schieten. Voor relatief eenvoudige taken op de smartphone draaien we als gebruikers, vaak onbewust, gigantische AI-modellen die niet efficiënt zijn voor die taken. In tussentijd sturen we voortdurend informatie de wereld rond van en naar datacenters.

Net als Jensen Huang ben ik een technologieoptimist. AI kan bijdragen aan de efficiëntieverbetering van diverse technologieën. Maar AI zal het energievraagstuk niet alleen kunnen oplossen. Bovendien is er Jevons paradox: een deel van de efficiëntiewinst in een technologie wordt steevast tenietgedaan door een grotere populariteit van die technologie. Moeten we dan maar stoppen met AI? Natuurlijk niet. De beloftes voor onze welvaart zijn te groot. Maar het onderzoek naar radicaal duurzamere technologie moet fors versnellen.

In de onderzoekswereld capteer ik gelukkig hoopgevende signalen. Kleinere en meer toegepaste AI-modellen kunnen (deels) lokaal draaien, zonder dat data voortdurend heen-en-weer gestuurd moeten worden naar datacenters. Zulke modellen werken gerichter doordat ze geen massa aan irrelevante data moeten doorspitten. Daardoor springen ze een stuk zuiniger om met rekenkracht en de beperkte geheugencapaciteit in bijvoorbeeld je smartphone. Nieuwe chipdesigns verminderen dan weer de nood aan koeling, wat de grootste energievreter is van datacenters.

Het zijn beloftevolle en uitdagende onderzoekstopics die vooral menselijke creativiteit en samenwerking vergen over de hele AI-waardeketen. AI is pas een blijver als we doorbraken boeken voor de efficiëntie. Zo niet, dreigt het AI-feestje ten onder te gaan aan zijn eigen decadentie.

Advertentie
Advertentie
Gesponsorde inhoud