De snelle uitbreiding van kunstmatige intelligentie roept kritische vragen op over de milieukosten van het voeden en koelen van de enorme datacenters die deze technologie ondersteunen. Hoewel sommige beweringen over een extreem verbruik van hulpbronnen betwist zijn, blijven de onderliggende problemen aanzienlijk. De vraag naar energie en water door AI neemt toe, waardoor de toch al onder druk staande systemen onder druk komen te staan. Dit is niet slechts een abstracte zorg; het is een praktisch probleem dat dringend aandacht vereist naarmate AI meer geïntegreerd raakt in het dagelijks leven.
Debatten over het verbruik van hulpbronnen
Recente debatten waren gericht op de juistheid van claims over watergebruik, met name die rond ChatGPT van OpenAI. CEO Sam Altman deed schattingen van 17 gallons water per chatbot-vraag af als “volkomen nep”, en stelde dat OpenAI afstand heeft genomen van verdampingskoelingsmethoden. Deze bewering wordt echter gecompliceerd door het feit dat 56% van de datacenters nog steeds afhankelijk is van verdampingskoeling, een proces dat aanzienlijke waterbronnen verbruikt. Een rapport uit 2026 van Xylem en Global Water Intelligence voorspelt dat het waterverbruik door AI tegen 2050 met bijna 130% zal stijgen.
De discussie over watergebruik brengt een groter probleem aan het licht: het gebrek aan transparantie in de manier waarop technologiebedrijven de impact op het milieu volgen en rapporteren. Zonder geverifieerde gegevens van OpenAI, Meta en Google is het moeilijk om de volledige omvang van hun hulpbronnengebruik in te schatten.
De omvang van het probleem: waterverbruik
Datacenters zijn waterintensieve faciliteiten. Twee datacentra van Google in Council Bluffs, Iowa, verbruikten alleen al in 2024 1,4 miljard liter water. De faciliteiten van Meta gebruikten in 2023 ongeveer 1,39 miljard liter. Deze cijfers illustreren de enorme omvang van de vraag naar water, zelfs nu bedrijven als OpenAI beweren over te stappen op duurzamere praktijken.
De behoefte aan koeling wordt veroorzaakt door de enorme hitte die wordt gegenereerd door AI-training en -operaties. Net als smartphones en laptops raken krachtige servers oververhit als ze niet goed worden beheerd, wat leidt tot vertragingen of schade. De keuze tussen waterintensieve verdampingskoeling en efficiëntere gesloten-lussystemen zal bepalen hoe duurzame AI-ontwikkeling wordt.
Energiebehoeften en alternatieven
AI legt ook een aanzienlijke druk op de energienetwerken. Generatieve AI-chatbots verbruiken meer stroom dan traditionele zoekmachines, waarbij een enkele zoekopdracht tot tien keer zoveel energie vergt als een Google-zoekopdracht. Uit de eigen gegevens van Google blijkt dat een gemiddelde Gemini-tekstprompt 0,24 wattuur aan energie verbruikt, terwijl door AI gegenereerde video’s veel meer vereisen.
De industrie onderzoekt hernieuwbare alternatieven, waarbij OpenAI investeert in zonne-energie en batterijopslag. Andere grote technologiespelers zoals Meta, Microsoft en Amazon hebben ook hun gebruik van zonne-energie uitgebreid. Deze hernieuwbare bronnen vullen momenteel echter de afhankelijkheid van fossiele brandstoffen in de meeste datacenternetwerken aan, in plaats van deze te vervangen.
De weg voorwaarts: transparantie en duurzaamheid
Het debat rond AI en het verbruik van hulpbronnen evolueert van speculatie naar datagedreven onderzoek. Gemeenschappen en beleidsmakers eisen meer transparantie en duurzame praktijken om ervoor te zorgen dat de groei van AI niet ten koste gaat van lokale hulpbronnen. Het balanceren van technologische innovatie en verantwoordelijkheid voor het milieu is niet langer optioneel; het is essentieel. Naarmate AI zich blijft ontwikkelen, moet de industrie prioriteit geven aan duurzame koelingsoplossingen, de adoptie van hernieuwbare energie en open rapportage over de ecologische voetafdruk om de impact ervan te verzachten.
