Szybki rozwój sztucznej inteligencji rodzi ważne pytania dotyczące kosztów środowiskowych zasilania i chłodzenia ogromnych centrów danych stanowiących podstawę tej technologii. Chociaż niektóre twierdzenia dotyczące ekstremalnego zużycia zasobów są kwestionowane, podstawowe kwestie pozostają istotne. Rosnące zapotrzebowanie sztucznej inteligencji na energię i wodę wywiera presję na już przeciążone systemy. To nie jest tylko abstrakcyjny problem; Jest to praktyczne wyzwanie, któremu należy pilnie sprostać, w miarę jak sztuczna inteligencja staje się coraz głębiej zintegrowana z życiem codziennym.
Dyskusje na temat zużycia zasobów
Niedawna debata skupiła się na dokładności danych dotyczących zużycia wody, szczególnie w odniesieniu do ChatGPT OpenAI. Dyrektor generalny Sam Altman nazwał szacunki dotyczące 17 galonów wody na żądanie chatbota „totalnym bzdurą”, twierdząc, że OpenAI porzuciło metody chłodzenia wyparnego. Stwierdzenie to komplikuje jednak fakt, że 56% centrów danych w dalszym ciągu opiera się na chłodzeniu wyparnym, procesie zużywającym znaczne zasoby wody. Raport Xylem i Global Water Intelligence z 2026 r. przewiduje, że do 2050 r. zużycie wody przez sztuczną inteligencję wzrośnie o prawie 130%.
Dyskusja na temat zużycia wody uwydatnia szerszy problem: brak przejrzystości w sposobie, w jaki firmy technologiczne śledzą i raportują wpływ na środowisko. Bez zweryfikowanych danych z OpenAI, Meta i Google trudno jest ocenić pełny zakres zużycia przez nie zasobów.
Zakres problemu: Zużycie wody
Centra danych to obiekty wodochłonne. Dwa centra danych Google w Council Bluffs w stanie Iowa zużyły w 2024 r. 1,4 miliarda galonów wody. W 2023 r. obiekty Meta zużyły około 1,39 miliarda galonów. Liczby te ilustrują ogromną skalę zapotrzebowania na wodę, mimo że firmy takie jak OpenAI twierdzą, że idą w kierunku bardziej zrównoważonych praktyk.
Konieczność chłodzenia wynika z ogromnego ciepła wytwarzanego podczas szkolenia i działania sztucznej inteligencji. Podobnie jak smartfony i laptopy, potężne serwery przegrzewają się, jeśli nie są odpowiednio zarządzane, co powoduje ich spowolnienie lub uszkodzenie. Wybór pomiędzy wodochłonnym chłodzeniem wyparnym a bardziej wydajnymi systemami z obiegiem zamkniętym zadecyduje o tym, jak zrównoważony będzie rozwój sztucznej inteligencji.
Zapotrzebowanie na energię i alternatywy
Sztuczna inteligencja wywiera również znaczną presję na sieci energetyczne. Generacyjne chatboty AI zużywają więcej energii niż tradycyjne wyszukiwarki, przy jednym zapytaniu mogą pochłonąć 10 razy więcej energii niż wyszukiwarka Google. Z własnych danych Google wynika, że przeciętne zapytanie tekstowe Gemini zużywa 0,24 watogodziny energii, podczas gdy generowanie wideo AI wymaga znacznie więcej.
Branża bada alternatywne źródła energii odnawialnej, a OpenAI inwestuje w magazynowanie energii słonecznej i akumulatorowej. Inni główni gracze technologiczni, tacy jak Meta, Microsoft i Amazon, również rozszerzyli wykorzystanie energii słonecznej. Jednakże te źródła odnawialne obecnie raczej uzupełniają, a nie zastępują zależność od paliw kopalnych w większości sieci centrów danych.
Dalsze działania: przejrzystość i zrównoważony rozwój
Debata na temat sztucznej inteligencji i zużycia zasobów ewoluuje od spekulacji do analizy danych. Społeczności i decydenci domagają się większej przejrzystości i zrównoważonych praktyk, aby rozwój sztucznej inteligencji nie odbywał się kosztem zasobów lokalnych. Dostosowanie innowacji technologicznych do odpowiedzialności za środowisko nie jest już opcjonalne; jest to niezbędne. W miarę ciągłego rozwoju sztucznej inteligencji branża musi nadać priorytet zrównoważonym rozwiązaniom chłodniczym, przyjęciu energii odnawialnej i otwartym raportom na temat swojego śladu środowiskowego, aby złagodzić jego wpływ.
























