Big tech is op energiejacht om hongerige AI’s te voeden
De grote techbedrijven kondigen massaal investeringen aan in kernenergie om de groei van artificiële intelligentie (AI) te verzekeren. Valt die elektriciteitshonger niet wat te temperen? En moeten we dat monster wel blijven voeden?
Het was een enigszins omineus bericht waarmee Microsoft eind september nieuwskoppen maakte: de softwaregigant wil de kerncentrale van Three Mile Island in de Amerikaanse staat Pennsylvania weer tot leven wekken om aan voldoende stroom te geraken voor zijn aanzwellende leger datacenters.
Three Mile Island staat bij het oudere deel van de bevolking nog in het geheugen gegrift als de plek waar in 1979 één van de zwaarste kernrampen uit de geschiedenis plaatsvond, waarbij een kernreactor gedeeltelijk wegsmolt. De reactor die Microsoft nu in gebruik wil nemen, heeft evenwel - los van de ligging op dezelfde site - niets met dat ongeluk te maken. Het gaat om een aparte installatie die is blijven draaien tot 2019, toen ze om economische redenen in de mottenballen werd gelegd.
Het bericht vestigde wel de aandacht van het grote publiek op een trend die al jaren aan de gang is: de onstilbare honger van big tech naar energie om haar vele activiteiten in de cloud te doen draaien. Kernenergie staat niet alleen bij Microsoft hoog op de agenda. Google bestelde bij het Amerikaanse bedrijf Kairos Power liefst zeven kerncentrales om zijn datacenters aan te vuren. Dat zijn weliswaar geen klassieke centrales zoals in Three Mile Island, maar een nieuw type van kleinere en moduleerbare reactoren of SMR’s (Small Modular Reactors). Die technologie wekte ook de interesse van de e-commercereus Amazon, die deelneemt aan een kapitaalronde bij SMR-ontwikkelaar X-energy.
Bij al die berichten over een nucleaire revival vallen wel wat kanttekeningen te plaatsen. SMR’s bieden op papier een goede oplossing om klimaatvriendelijke elektriciteit te produceren op de plekken waar die stroom nodig is, maar rond de praktische toepassing van de technologie hangen nog veel vraagtekens.
Dat de grote techbedrijven toch zoveel geld in de ontluikende technologie stoppen, zegt vooral iets over hun enorme energiebehoefte en hoe sterk die de komende jaren nog zal groeien. Het Internationaal Energieagentschap (IEA) verwacht dat de energievraag van datacenters - zeg maar de rekencentra van het internet - wereldwijd zal verdubbelen in amper vier jaar tijd.
In 2022 verbruikten ze al 460 terawattuur (TWh), of 2 procent van alle opgewekte stroom ter wereld. Het IEA schat dat hun verbruik tegen 2026 kan oplopen tot 1.000 TWh, ongeveer een derde van wat alle kerncentrales wereldwijd vorig jaar opwekten, of evenveel als het stroomverbruik van Japan.
Cryptomunten
Tot voor enkele jaren leek het nochtans zo’n vaart niet te lopen. In de periode van 2015 tot 2019 stabiliseerde de stroomvraag vanuit de techsector. Die kon het toenemende gebruik van allerlei clouddiensten toen nog compenseren met steeds zuinigere en efficiëntere datacenters. Dat dit sinds 2020 niet meer lukt, is grotendeels te wijten aan de ontwikkeling en het gebruik van AI, en dan vooral de grote taalmodellen (LLM’s) die de basis vormen voor de revolutie in generatieve AI-tools zoals ChatGPT. Ook het toenemende gebruik van blockchains en cryptomunten, goed voor meer dan 1 procent van de wereldwijde stroomvraag, legt steeds meer beslag op de beschikbare energie en rekenkracht.
De sprong in verbruik door AI wordt heel tastbaar wanneer je de vereiste energie voor een klassieke zoekactie in Google Search vergelijkt met die van een vraag aan ChatGPT. Bij Google Search verbruik je 0,3 wattuur, bij ChatGPT 2,9 wattuur, of bijna 10 keer meer. Een andere manier om het te bekijken: wie elke dag 10 vragen stelt aan ChatGPT, verbruikt in een week tijd evenveel energie als nodig is om een lamp van 20 watt tien uur te laten branden.
Dat enorme verschil heeft alles te maken met het exponentieel hogere aantal berekeningen dat je nodig hebt om met een taalmodel zoals ChatGPT een antwoord te genereren, zegt professor Ann Dooms van de vakgroep Wiskunde en Data Science aan de VUB. ‘Google Search voert ook wel berekeningen uit om webpagina’s te rangschikken, onder meer op basis van het aantal links vanuit andere pagina’s. Maar ChatGPT moet relaties en patronen vinden in alle informatie die er bestaat. Dat vraagt veel meer berekeningen, zowel in het trainen van een model als in het gebruik ervan.’
Onhoudbaar
Het mag duidelijk zijn dat een verdere groei in de ontwikkeling en het gebruik van die AI-modellen onhoudbaar is als de nodige energie niet uit klimaatneutrale bronnen komt. Die zoektocht naar duurzame stroom vormt vandaag één van de grootste uitdagingen van de techbedrijven.
Ze kijken lang niet alleen naar kernenergie. In Europa is de techsector nu al veruit de grootste afnemer van wind- en zonne-energie via rechtstreekse afnamecontracten (PPA’s). Met 14,9 gigawatt gecontracteerde capaciteit laten de ICT-bedrijven zelfs de zware industrie (12 GW) achter zich, zo blijkt uit data van de sectorfederatie Wind Europe.
De top drie van grootste afnemers bestaat niet toevallig uit Amazon, Google en Microsoft, terwijl Facebook-moeder Meta positie zes inneemt van de Europese ranking, boven industriebedrijven als BASF, Borealis en Umicore. Met zijn vieren hebben Amazon, Google, Microsoft en Meta 12,9 gigawatt aan Europese wind- en zonnecapaciteit onder contract, vergelijkbaar met alle Belgische zonnepanelen en de windparken op zee samen.
In ons land was het vooral Google dat de voorbije jaren aan de lopende band deals sloot om haar energie slurpende en steeds groeiende datacenter in Bergen te bevoorraden. In 2016 bijvoorbeeld stond de digitale reus op het punt om in te stappen in de Gentse BEE-biomassacentrale, tot het project werd gekelderd omdat de Vlaamse regering de groenestroomcertificaten weigerde.
Sindsdien ontpopte Google zich tot een grote afnemer van Belgische windenergie, zowel op zee als op land. Het bedrijf verlengde deze zomer het contract met Engie om nog eens acht jaar lang elektriciteit af te nemen van het offshorewindpark Norther en het sloot deals voor de volledige stroomafname van vier nieuwe wondmolenparken op land, alles samen goed voor 118 megawatt. Eerder dit jaar sloot Google ook al grote winddeals met de groenestroomproducent Aspiravi (79 MW) en het energiebedrijf Luminus (49 MW).
De ambitie van Google is om tegen 2030 haar datacenters en kantoren op ieder uur van de dag enkel nog te bevoorraden met koolstofvrije elektriciteit. Het zou best kunnen dat het bedrijf ook zal proberen om kernenergie te kopen van de twee nog overblijvende Belgische kerncentrales.
Flessenhals
Die enorme energiehonger dreigt volgens critici de omslag naar een koolstofvrije economie te belemmeren. Als er niet snel genoeg duurzame energiebronnen bijkomen, wordt de transitie van fossiele brandstoffen naar groene stroom erdoor vertraagd. In de VS bijvoorbeeld, waar de vraag vanuit de techsector het meest groeit, wordt de verleiding groot om het gat te dichten door nog meer olie en gas uit de grond te halen.
Maar ook als er genoeg groene energie kan worden geproduceerd, is het de vraag of de elektriciteitsnetten voldoende robuust zijn om al die stroom te vervoeren. Hoogspanningslijnen en transformatoren kunnen de echte flessenhals worden die de groei van AI zal fnuiken, meer nog dan de energieproductie.
Het beste antwoord lijkt dan ook niet te liggen in meer elektriciteit produceren, maar er minder verbruiken. Zo kan er onder meer nog bespaard worden op de koelsystemen die moeten vermijden dat computerchips oververhitten. Koeling maakt zowat 40 procent uit van de totale energievraag van een datacenter, evenveel als het verbruik van de computers zelf. Onderzoekers kijken onder meer naar innovatieve technieken zoals het onderdompelen van servers in koelvloeistoffen of manieren waarbij de koeling op de chip zelf gebeurt.
Verzadigingspunt
Ook software kan helpen om de koolstofemissie van datacenters te verlagen, bijvoorbeeld door berekeningen op elk moment toe te wijzen aan beschikbare centers die maximaal gebruikmaken van hernieuwbare energie. Een andere trend die kan helpen om de stroomnetten te ontlasten, is ‘edge AI’, het draaien van AI-toepassingen op lokale toestellen in plaats van in een datacenter.
Fundamenteler is de vraag of bedrijven als Google, Microsoft en ChatGPT-maker OpenAI moeten blijven investeren in hun allesomvattende, data verslindende taalmodellen. Dooms vindt alvast van niet. ‘De basis voor die modellen is in de jaren 60 ontstaan en is gebaseerd op patroonherkenning in heel veel voorbeelddata. Een vorm van algemene intelligentie gaan we er niet mee bereiken én ze gaan op deze manier ook niet veel beter meer worden dan ze vandaag zijn’, denkt ze. ‘Je merkt nu al dat de resultaten van verschillende modellen steeds meer op elkaar beginnen te lijken, en dat ze ook dezelfde fouten maken. Dat is een signaal dat we een verzadigingspunt naderen. De modellen gebruiken grotendeels dezelfde data.’
Laat AI het zelf oplossen
‘Eén van de manieren om AI efficiënter te maken, is door andere types modellen in te zetten of nieuwe te ontwikkelen’, vervolgt Dooms. ‘Zo bestaat er al reinforcement learning: je legt de AI een probleem voor en laat hem zelf een aantal voorstellen maken die tot positieve of negatieve feedback leiden. Na een tijd ontwikkelt de AI dan zelf de beste strategie om het probleem op te lossen. Een voorbeeld van zo’n AI is AlphaGo Zero, het algoritme van Google dat voor het eerst mensen kon verslaan in het Japanse bordspel go. Reinforcementmodellen hebben geen massa data nodig, maar je kan ze niet op alles toepassen.’
‘Een andere optie, waar ik zelf op werk, is dat je je probleem wiskundig heel goed gaat modelleren, waardoor de AI veel minder tot geen voorbeelden nodig heeft om zich te trainen’, zegt Dooms. ‘Dat vraagt wat meer maatwerk, maar het zal voor specifieke applicaties ook betere resultaten opleveren dan een puur op data gebaseerd model.’