Kunstmatige intelligentie verbruikt enorm veel stroom. Er zijn wel organisaties die zeggen dat het ook anders kan, maar tot op heden gebruikt het veel processoren die op hun beurt weer veel stroom verbruiken. Soms worden bepaalde AI-projecten zelfs niet toegestaan omdat ze zo’n impact hebben.
In Amerika werd er vorig jaar een verzoek van Amazon om 180 megawatt extra energie vanuit de kerncentrale Susquehanna te halen afgewezen, omdat andere gebruikers hier last van zouden kunnen hebben. Ook in Nederland hebben we af en toe grote problemen met energie, omdat het energienet gaandeweg overbelast raakt. In Nederland heeft het nog niet zozeer met AI te maken, maar dat is een kwestie van tijd
Het is knap vervelend dat er zoveel processoren nodig zijn voor AI, want dat kost veel geld, naast dat een AI-systeem hierdoor als het ware in stukjes moet worden opgedeeld. Nvidia begon enige tijd geleden accelators toe te voegen aan GPU’s om zo te zorgen dat het steeds efficienter werkte. Maar dan nog: OpenAI zou meer dan 25.000 Nvidia Ampere 100 GPU’s gebruiken met een energieconsumptie van 50 gigawattuur voor 100 dagen om te trainen. Een gemiddelde stad doet er een jaar over om zoveel energie op te maken.
Reden dus om te zorgen dat AI minder stroom verbruikt. Er zijn onderzoekers die stellen dat de hoeveelheid rekenkracht die er nodig is naar beneden moet. Bijvoorbeeld door bepaalde parameters van een getraind model op nul te zetten, waardoor er een kleiner model overblijft. Of je kunt ze misschien kleiner maken. Typisch dus, want hierdoor wordt de AI ook weer opgedeeld in stukjes.
Een andere optie is om de trainingsfase anders in te steken waardoor datacenters er anders mee omgaat, namelijk door de workload eerlijk te verspreiden. GPU’s die een kleinere workload hebben en langzamer gaan, die consumeren minder energie, terwijl ze om dezelfde tijd klaar zijn als hun gewone evenbeelden. Hiervoor hebben experts eigen software gebouwd, genaamd Perseus, om dat evenredig verdelen beter te maken.
En we kunnen daar als mensen wel mee aan de slag, maar waarom zouden we kunstmatige intelligentie het niet zelf laten oplossen? Wat zegt bijvoorbeeld een ChatGPT er zelf van?
Het verminderen van het stroomverbruik van AI is een hot topic, vooral omdat grote AI-modellen enorme hoeveelheden energie gebruiken. Hier zijn een paar manieren om AI energiezuiniger te maken:
Dat betekent dus wel dat we als mensheid nog wat te doen hebben, zeker als we kijken naar bepaalde hardware gebruiken, andere AI-programma’s ontwikkelen en meer groene stroom gebruiken. Dat moet er immers wel volop zijn dan. Uiteindelijk is het echter niet alleen AI die zorgt voor een vergrote energieconsumptie: ook crypto staat erom bekend, maar uiteindelijk ook elektrische auto’s en eventueel fabrieken die steeds meer elektrificeren. Het is dus zeker niet alleen een probleem van AI, maar het zou natuurlijk top zijn als onderzoekers AI zo ver kunnen krijgen om echt met de kip met de gouden eieren te komen.