Dlaczego wokół zużycia energii i wody przez AI wybuchła burza
Generatywna sztuczna inteligencja w ciągu kilkunastu miesięcy przeszła drogę od technologicznej ciekawostki do jednego z najbardziej dyskutowanych tematów w biznesie. ChatGPT, modele tworzące obrazy i wideo, narzędzia automatyzujące pisanie kodu – wszystkie one stały się codziennością marketerów, zespołów IT, prawników czy działów obsługi klienta. Równolegle do zachwytu nad produktywnością pojawiła się jednak druga narracja: nagłówki o „galonach wody na jedno zapytanie”, rosnące rachunki energetyczne centrów danych i pytania regulatorów ESG o rzeczywisty koszt tych innowacji.
Kroplą, która przelała czarę, okazały się niedawne wypowiedzi Sama Altmana podczas AI Impact Summit w Indiach. Szef OpenAI nazwał popularne w sieci twierdzenia o „17 galonach wody na jedno zapytanie do ChatGPT” „całkowicie nieprawdziwymi” i „oderwanymi od rzeczywistości”, jednocześnie porównując zużycie energii przez AI do… energii potrzebnej, aby „wytrenować” człowieka na przestrzeni 20 lat życia. Jego słowa odbiły się szerokim echem w mediach takich jak „The Indian Express” i dopisały nowy rozdział do sporu między branżą technologiczną a środowiskiem badaczy klimatu.
Ten artykuł jest adresowany do osób, które stoją pośrodku tego sporu: liderów IT przygotowujących wdrożenia AI, marketerów budujących nowe usługi, specjalistów ESG oraz wszystkich, którzy chcą rozumieć technologię w szerszym kontekście społecznym i środowiskowym. Celem nie jest podbicie emocji, lecz uporządkowanie szumu informacyjnego wokół śladu środowiskowego AI, pokazanie, skąd biorą się kontrowersyjne liczby, dlaczego Altman nazywa część z nich „nieprawdziwymi” oraz co wynika z najnowszych danych naukowych.
Kluczowe pytanie brzmi nie tyle: „czy jeden prompt do ChatGPT zużywa kroplę czy wiadro wody?”, ale: „jak rosnąca skala zastosowań AI wpływa na infrastrukturę energetyczną i wodną, a tym samym na strategie ESG firm?”. Odpowiedź wymaga zrozumienia, co właściwie mierzymy, gdy mówimy o śladzie węglowym sztucznej inteligencji.
Co właściwie mierzymy: energia, woda i ślad węglowy w kontekście AI
W dyskusji o środowiskowym koszcie AI pojawiają się trzy pojęcia, które często są mylone lub używane zamiennie: zużycie energii elektrycznej, zużycie wody oraz ślad węglowy (emisje CO₂e). To od ich rozróżnienia zaczyna się rzetelna rozmowa.
Po pierwsze – energia elektryczna. Każde działanie modelu AI wymaga mocy obliczeniowej: od trenowania ogromnych modeli językowych po obsługę pojedynczego zapytania użytkownika. Ta moc pochodzi z sieci energetycznej, której miks – udział węgla, gazu, OZE i atomu – decyduje o tym, ile CO₂ trafia do atmosfery.
Po drugie – woda. Zdecydowana większość wody w kontekście AI nie jest zużywana bezpośrednio przez same serwery, lecz przez systemy chłodzenia centrów danych. W przypadku chłodzenia ewaporacyjnego część wody odparowuje, co oznacza realne zużycie zasobu. Alternatywą są systemy chłodzenia powietrzem lub zamknięte obiegi cieczy, które ograniczają pobór wody, ale często kosztem wyższego zużycia energii.
Po trzecie – ślad węglowy. To łączna ilość emisji gazów cieplarnianych wyrażona zwykle jako ekwiwalent CO₂ (CO₂e). Obejmuje nie tylko bieżącą energię zużytą na zasilanie serwerów, ale – w zależności od metodologii – również emisje związane z produkcją sprzętu, budową infrastruktury, transmisją danych czy pracą urządzeń końcowych.
Szczególnie istotne jest rozróżnienie dwóch etapów życia modelu: trenowania (training) i wykorzystania (inference). Trenowanie dużych modeli generatywnych to proces punktowy, trwający tygodnie lub miesiące na tysiącach specjalistycznych procesorów (GPU/TPU). Jego ślad węglowy potrafi sięgać tysięcy ton CO₂e dla pojedynczego modelu, ale jest to koszt ponoszony raz na jakiś czas.
Inference, czyli odpowiadanie na pytania użytkowników, to z kolei masowe, rozproszone w czasie zużycie energii – codziennie, na milionach zapytań. Każde z nich jest relatywnie „lekkie” energetycznie w porównaniu z treningiem, lecz skala powoduje, że to właśnie etap użycia coraz częściej dominuje w bilansie środowiskowym popularnych usług AI.
W łańcuchu wartości AI energia i woda pojawiają się na kilku poziomach: w centrach danych (zasilanie serwerów, systemy chłodzenia), w sieci telekomunikacyjnej (przesył danych) oraz na urządzeniach końcowych (komputery, smartfony, czujniki IoT). Największa część zużycia koncentruje się jednak w wyspecjalizowanych serwerowniach, gdzie pracują akceleratory AI.
Dla zobrazowania rzędu wielkości można posłużyć się przybliżeniem: pojedyncze zapytanie do dużego modelu językowego zużywa zwykle więcej energii niż standardowe wyszukiwanie w internecie, ale dużo mniej niż odtworzenie kilkuminutowego materiału wideo w wysokiej rozdzielczości. Różnice zależą od architektury modelu, długości odpowiedzi, sprzętu i efektywności centrum danych.
Precyzyjne liczby są trudne do ustalenia nie tylko dlatego, że dostawcy chmurowi traktują wiele danych jako tajemnicę handlową. Część badań opiera się na szacunkach, przybliżonych współczynnikach efektywności energetycznej (PUE) i wodnej (WUE), a także założeniach co do obciążenia serwerów. To rodzi naturalne napięcia między badaczami środowiskowymi a firmami takimi jak OpenAI, które podkreślają postępy w efektywności i odrzucają najbardziej dramatyczne nagłówki.
Skąd biorą się liczby, które oburzają Sama Altmana
Podczas wydarzenia AI Impact Summit w Indiach Sam Altman zaatakował popularne w sieci twierdzenia o „17 galonach wody na jedno zapytanie do ChatGPT”, nazywając je „całkowicie nieprawdziwymi”, „totalnie szalonymi” i „oderwanymi od rzeczywistości”. Wskazywał, że takie liczby wynikają z nieaktualnych założeń dotyczących chłodzenia ewaporacyjnego („kiedyś tak było, teraz już nie w tej skali”) oraz z uogólniania ekstremalnych przypadków pojedynczych centrów danych na całą branżę.
Altman zwrócił też uwagę, że skupianie się na jednym zapytaniu jest mylące. Powołując się na własne dane, mówił o ułamkach watogodziny energii i ułamkach łyżeczki wody na pojedynczy prompt, argumentując, że znacznie więcej energii zużywa „wytrenowanie człowieka” przez 20 lat życia, edukacji i ewolucji. Ten argument jest retorycznie efektowny, ale w praktyce odwraca uwagę od bezwzględnej skali inwestycji infrastrukturalnych w AI oraz ich skumulowanego wpływu.
Skąd zatem wzięły się nagłówki o „17 galonach wody na zapytanie”? W większości przypadków to nie są oficjalne dane producentów, lecz wynik złożonych ekstrapolacji. Badacze analizują publiczne informacje na temat wybranych centrów danych, współczynniki PUE i WUE, lokalne warunki klimatyczne oraz szacowany wolumen zapytań, a następnie przeliczają zużycie wody na jednostkową operację. W zależności od przyjętych założeń, wynik może wyjść spektakularny – ale niekoniecznie reprezentatywny.
Równolegle rośnie baza oficjalnych danych o globalnym śladzie energetycznym centrów danych. Międzynarodowa Agencja Energii szacuje, że centra danych – w tym te obsługujące AI – odpowiadają już za zauważalny odsetek globalnego zużycia energii elektrycznej, a ich zapotrzebowanie rośnie szybciej niż zużycie energii w wielu krajach uprzemysłowionych. Część tego wzrostu jest wprost napędzana boomem na generatywną AI.
Napięcie między Altmanem a krytykami wynika więc z dwóch perspektyw. Z perspektywy biznesu kluczowe jest podkreślenie rosnącej efektywności – niższe zużycie energii na jeden prompt, nowsze, mniej wodochłonne technologie chłodzenia, przechodzenie na OZE. Z perspektywy klimatycznej liczy się łączny efekt setek miliardów zapytań i tysięcy megawatów nowej mocy przyłączanej do sieci, często w regionach już zmagających się z niedoborem wody.
Warto przy tym pamiętać, że koszty środowiskowe nie istnieją w próżni finansowej. Jak pokazuję w analizie „Microsoft, OpenAI i koszt sztucznej inteligencji: co naprawdę dzieje się w finansach gigantów”, gigantyczne nakłady na infrastrukturę AI – nowe centra danych, floty GPU, inwestycje w energetykę – są nierozerwalnie powiązane zarówno z bilansem klimatycznym, jak i z modelem biznesowym największych graczy.
Co mówią aktualne badania o energii i wodzie zużywanej przez AI
W ostatnich latach pojawiła się cała fala badań naukowych i raportów instytucjonalnych dotyczących wpływu AI na zużycie energii i wody. Ich wnioski są zniuansowane, ale układają się w kilka wyraźnych trendów.
Udział centrów danych w globalnym zużyciu energii. Według szacunków Międzynarodowej Agencji Energii centra danych, infrastruktura sieciowa i technologie AI odpowiadają już za około 1,5–2 proc. globalnego zużycia energii elektrycznej, a prognozy do końca dekady mówią o dalszym, dwucyfrowym tempie wzrostu rocznie, jeśli nie nastąpi radykalna poprawa efektywności i zmiana miksu energetycznego. Istotna część tego wzrostu związana jest z obciążeniem generowanym przez duże modele językowe, generację multimediów i aplikacje czasu rzeczywistego.
Trening dużych modeli. Badania publikowane m.in. na konferencjach z obszaru uczenia maszynowego pokazują, że wytrenowanie jednego dużego modelu generatywnego może wiązać się z emisjami rzędu tysięcy, a nawet kilkunastu tysięcy ton CO₂e – w zależności od zastosowanej architektury, liczby przebiegów treningu, zastosowanych układów (GPU vs TPU) oraz źródła energii. To wartości porównywalne z rocznym śladem węglowym tysięcy mieszkańców państw rozwiniętych. Należy jednak podkreślić: są to szacunki dla klas modeli, a nie audyt konkretnych, komercyjnych produktów.
Zużycie wody. Nowsze analizy skupiają się coraz częściej na wodnym śladzie AI. Raporty firm doradczych i organizacji branżowych wskazują, że globalne zużycie wody przez centra danych idzie w miliardy litrów rocznie, a wraz z rosnącą mocą obliczeniową wykorzystywaną przez AI może się wielokrotnie zwiększyć w kolejnych dekadach. Tam, gdzie dominuje chłodzenie ewaporacyjne, pojedyncze średniej wielkości centrum danych może zużywać setki tysięcy litrów wody dziennie.
Obraz ten obarczony jest jednak istotnymi niepewnościami. Różne lokalizacje oznaczają różne warunki klimatyczne, a więc inne wymagania chłodzenia. Różne technologie – od czystego chłodzenia powietrzem, przez hybrydowe systemy wodno-powietrzne, po zaawansowane układy cieczy w obiegu zamkniętym – mają radykalnie różny profil zużycia wody. Do tego dochodzi lokalny miks energetyczny: ten sam model trenowany w regionie, gdzie dominuje węgiel, będzie miał inny ślad węglowy niż w centrum danych zasilanym w dużym stopniu przez farmy wiatrowe czy elektrownie wodne.
Dostawcy chmurowi – Microsoft, Google, Amazon – publikują coraz bardziej rozbudowane raporty ESG, w których raportują zarówno emisje gazów cieplarnianych, jak i zużycie wody. Problem w tym, że dane dotyczą zwykle całej platformy (od hostingu stron po usługi AI), a nie oddzielają precyzyjnie infrastruktury generatywnej. W efekcie trudno dziś obiektywnie zweryfikować, ile dokładnie energii i wody „przypada” na konkretne zapytanie do ChatGPT czy generowania obrazu przez model pokroju DALL‑E.
W tym kontekście Altman ma częściowo rację: najbardziej skrajne nagłówki, wyrwane z kontekstu lokalnych badań, nie oddają pełnego obrazu i potrafią wprowadzać opinię publiczną w błąd. Jednocześnie badania nie pozostawiają wątpliwości, że skala zjawiska jest znacząca i rośnie szybciej, niż systemy energetyczne i wodne wielu krajów są do tego przygotowane. Spór dotyczy więc nie tego, czy AI zwiększa presję na zasoby, lecz tego, jak szybko i jak transparentnie branża technologiczna powinna ujawniać rzeczywiste dane.
Dlaczego różne analizy śladu węglowego AI dają tak odmienne wyniki
Rozbieżności między badaniami nie wynikają wyłącznie z intencji autorów – jedni chcą podkreślić potencjał, inni alarmować. Kluczową rolę odgrywa metodologia, a zwłaszcza trzy elementy: zakres analizy, jednostka funkcjonalna oraz źródła danych.
Zakres analizy. Część autorów liczy wyłącznie energię zużytą w centrum danych na zasilanie serwerów i chłodzenie. Inni włączają w to także ślad sprzętu (produkcja procesorów, pamięci, zasilaczy), budowę serwerowni, transmisję danych przez sieć oraz zużycie energii przez urządzenia końcowe. Różnica jest ogromna: analiza obejmująca cały cykl życia (LCA) potrafi wykazać nawet kilkukrotnie wyższy ślad węglowy niż analiza skupiona wyłącznie na eksploatacji.
Jednostka funkcjonalna. Liczby „na model”, „na zapytanie”, „na użytkownika miesięcznie” czy „na 1 USD przychodu” brzmią podobnie, ale komunikacyjnie robią zupełnie inne wrażenie. Wysoka liczba ton CO₂e na trening jednego modelu może wyglądać dramatycznie, ale rozłożona na setki milionów zapytań może wydawać się marginalna. Z kolei liczba watogodzin na jedno zapytanie wygląda niewinnie – dopóki nie zeskalujemy jej do miliardów interakcji dziennie.
Źródła danych. Część analiz opiera się na oficjalnych danych operatorów chmurowych, którzy publikują średnie PUE i WUE dla swoich centrów danych. Inne bazują na zewnętrznych szacunkach: badacze przyjmują wartości PUE/WUE z literatury, zakładają obciążenie serwerów, a następnie przeliczają wynik na jednostkę funkcjonalną. Każdy z tych kroków wprowadza margines niepewności, który w efekcie daje bardzo różne liczby w nagłówkach.
Miks energetyczny. Ten sam model trenowany w regionie o wysokim udziale OZE (np. w Skandynawii) będzie miał ślad węglowy wielokrotnie niższy niż w regionie opartym na węglu (np. w krajach, gdzie energetyka nadal w dużym stopniu korzysta z paliw kopalnych). Prosty przykład myślowy: jeśli przeniesiemy centrum danych obsługujące duży model z Polski do Norwegii, nie zmieniając ani architektury modelu, ani liczby zapytań, ślad węglowy może spaść o kilkadziesiąt procent tylko dzięki innemu miksowi energetycznemu. Z kolei zamiana chłodzenia wodnego z wysokim odparowaniem na chłodzenie powietrzem może zmniejszyć zużycie wody, ale podnieść zużycie energii – i odwrotnie.
To pole do nadużyć komunikacyjnych. Marketing narzędzi AI chętnie eksponuje wybrane wskaźniki – na przykład „neutralność klimatyczną” liczona dzięki zakupowi certyfikatów – pomijając jednocześnie rosnące zużycie wody lub brak pełnego ujęcia cyklu życia sprzętu. Regulatorzy w Unii Europejskiej pracują już nad przepisami, które mają ograniczyć tzw. greenwashing i wymusić bardziej przejrzyste raportowanie środowiskowe w usługach cyfrowych, w tym w AI.
Dla marketerów i liderów IT oznacza to konieczność krytycznego podejścia do materiałów dostawców. Kluczowe jest nie tylko to, jakie liczby widzimy w broszurach, ale także: jak zostały policzone, jaki zakres obejmują, jaką jednostkę przyjęto i czy da się je porównać z innymi ofertami.
Warto przy tym pamiętać, że ewoluuje sama architektura rozwiązań AI. W analizie „Przyszłość asystentów AI: jak Visual Intelligence Apple łączy lokalną sztuczną inteligencję z ChatGPT i Google” pokazywałem, jak łączenie lokalnej inferencji na urządzeniu z modelami chmurowymi zmienia sposób liczenia śladu środowiskowego: część obliczeń przenosi się z centrum danych do smartfona, co obniża presję na infrastrukturę sieciową, ale rodzi pytania o efektywność energetyczną samych urządzeń.
Jak odpowiedzialnie planować wdrożenia AI w firmie z perspektywy ESG
Dla zarządów, szefów IT i marketerów kluczowym wyzwaniem nie jest odpowiedź na pytanie, czy AI ma ślad środowiskowy – bo to oczywiste – lecz jak projektować rozwiązania, by maksymalizować wartość biznesową przy minimalizacji zużycia energii i wody. Tu perspektywa ESG spotyka się wprost z optymalizacją kosztową.
Audyt potrzeb. Pierwszym krokiem powinno być rzetelne określenie, jakiego typu modeli naprawdę potrzebuje organizacja. W wielu przypadkach wystarczy mniejszy, wyspecjalizowany model – np. do obsługi dokumentów wewnętrznych czy klasyfikacji zgłoszeń – który można uruchamiać lokalnie (on‑premise lub na urządzeniach brzegowych). Duży, ogólny model generatywny w chmurze powinien być zarezerwowany dla zadań, w których jego dodatkowe możliwości rzeczywiście przekładają się na wartość biznesową.
Wybór dostawcy i regionu. Porównując oferty chmurowe, warto wychodzić poza ceny i parametry techniczne. W raportach ESG dostawców należy szukać informacji o PUE, WUE, udziale OZE w miksie energetycznym, planach redukcji emisji oraz lokalizacji centrów danych. W niektórych przypadkach przeniesienie obciążenia do innego regionu chmurowego – np. z centrum zasilanego głównie z węgla do centrum z wysokim udziałem energii wiatrowej – może dać większy efekt środowiskowy niż jakakolwiek optymalizacja kodu.
Projektowanie rozwiązań. Na poziomie architektury systemu znaczenie mają takie decyzje jak: ograniczanie zbędnych zapytań, stosowanie batchowania (łączenia wielu żądań w jedno), cache’owanie powtarzalnych wyników czy inteligentne dobieranie „mocy” modelu do zadania. Prosty klasyfikator lub mniejszy model może obsługiwać większość zadań, a duży model generatywny być wywoływany tylko wtedy, gdy to konieczne. To podejście jednocześnie redukuje zużycie energii i obniża koszty faktur chmurowych.
Zarządzanie cyklem życia danych i modeli. Trening od zera to najbardziej zasobożna opcja. W wielu przypadkach wystarczy fine‑tuning istniejącego modelu na danych firmowych, aktualizacja promptów lub zmiana sposobu integracji, aby osiągnąć oczekiwane rezultaty. Rzadziej wykonywany, dobrze zaplanowany retraining może zmniejszyć zarówno ślad węglowy, jak i ryzyko kosztownych błędów.
Raportowanie i komunikacja. Firmy wdrażające AI coraz częściej będą musiały raportować ślad środowiskowy swoich rozwiązań. Warto przygotować się do tego zawczasu, opracowując wewnętrzne metodologie szacowania zużycia energii i wody (w oparciu o dane dostawców chmurowych, liczby zapytań, czas treningu modeli). Transparentne komunikowanie tych danych klientom i inwestorom pozwala uniknąć zarzutów o greenwashing, a jednocześnie pokazać realne działania optymalizacyjne.
Co istotne, większość działań prośrodowiskowych ma swój bezpośredni odpowiednik w optymalizacji finansowej: mniej zbędnych zapytań to niższe rachunki za chmurę, bardziej efektywny model to niższe zużycie energii na jednostkę pracy, a lepsze zarządzanie cyklem życia danych oznacza mniej kosztownych projektów migracyjnych.
W tle tych decyzji trwa przetasowanie na rynku dostawców i modeli biznesowych. W tekście „Jak partnerstwo Microsoft–OpenAI przebudowuje rynek technologii i pracy z AI” opisuję, jak strategiczne alianse między dostawcami chmur a twórcami modeli wpływają na kierunek inwestycji infrastrukturalnych – a tym samym na to, gdzie i jak powstaje środowiskowy ślad generatywnej AI.
Co mogą zrobić indywidualni użytkownicy i dokąd zmierza debata o ekologii AI
Choć gros zużycia energii i wody generatywnej AI koncentruje się w centrach danych, zachowania indywidualnych użytkowników również mają znaczenie – szczególnie gdy są powielane przez setki milionów osób.
Z perspektywy pojedynczego użytkownika sens mają przede wszystkim działania oparte na świadomości i umiarkowaniu. Zamiast wielokrotnego odświeżania tego samego promptu można grupować pytania i precyzyjniej je formułować. Zamiast generować dziesiątki wersji grafiki „dla zabawy” w trakcie pracy zawodowej, warto od razu określić pożądany efekt i ograniczyć liczbę iteracji. Wybór narzędzi, które nie tylko deklarują ogólnie „neutralność klimatyczną”, ale przedstawiają konkretne dane i działania prośrodowiskowe, to kolejny sposób, by sygnałem rynkowym wspierać bardziej odpowiedzialne modele biznesowe.
W szerszej perspektywie debata o ekologii AI będzie ewoluować wraz z technologią. Rozwój bardziej efektywnych modeli, które osiągają podobne wyniki przy mniejszej liczbie parametrów, upowszechnienie lokalnej inferencji na urządzeniach końcowych oraz budowa nowych centrów danych zasilanych bezpośrednio z OZE mogą w kolejnych latach istotnie zmieniać bilans środowiskowy AI. Już dziś widać, że dostawcy prześcigają się w zapowiedziach inwestycji w energetykę odnawialną i atomową, a równolegle rośnie presja regulatorów oraz inwestorów ESG na lepsze raportowanie i realne ograniczanie zużycia zasobów.
W tym kontekście wypowiedzi Altmana, że „woda jest problemem z przeszłości”, podczas gdy „energia to prawdziwy temat”, trzeba czytać jako element szerszej komunikacyjnej strategii branży. Z jednej strony, skrajne nagłówki o „galonach na prompt” rzeczywiście bywają oderwane od zniuansowanego obrazu i zasługują na korektę. Z drugiej – skala wpływu AI na infrastrukturę energetyczną i wodną jest zbyt duża, by ją bagatelizować porównaniami do biologicznego „trenowania człowieka”.
Faktyczny „środek” sporu między Altmanem a ekologami leży gdzie indziej: w potrzebie opartej na danych, a nie emocjach dyskusji o tym, jakiej AI naprawdę potrzebujemy, jak ją zasilać i jak uczynić jej rozwój kompatybilnym z ograniczeniami planetarnymi. To wymaga większej przejrzystości ze strony firm technologicznych, lepszych standardów raportowania oraz świadomych decyzji zarówno po stronie biznesu, jak i użytkowników.
Na tym blogu będę wracał do tych tematów, łącząc perspektywę technologii, biznesu i ESG. Bo prawdziwy ślad węglowy AI to nie tylko liczba watogodzin na jeden prompt, ale cała opowieść o tym, jak projektujemy naszą cyfrową przyszłość.

