Ile prądu naprawdę zużywa AI? Co wynika z liczb i argumentów Sama Altmana

Ile prądu naprawdę zużywa AI? Co wynika z liczb i argumentów Sama Altmana

Dlaczego wokół zużycia energii i wody przez AI wybuchła tak gorąca debata

Generatywna sztuczna inteligencja w bardzo krótkim czasie stała się jednym z najważniejszych tematów biznesowych na świecie. Modele językowe takie jak ChatGPT trafiły do wyszukiwarek, pakietów biurowych, narzędzi programistycznych i systemów obsługi klienta. Za gwałtownym wzrostem zastosowań przyszły jednak równie intensywne pytania: ile prądu i wody kosztuje ten nowy etap cyfryzacji i czy planeta jest w stanie udźwignąć kolejną falę zapotrzebowania na energię?

Na te obawy nakłada się rosnąca wrażliwość społeczna na kwestie klimatu, presji na zasoby naturalne oraz lokalne napięcia wokół nowych centrów danych. Sam Altman, współzałożyciel i prezes OpenAI, w ostatnich miesiącach kilkukrotnie publicznie odnosił się do zarzutów dotyczących rzekomo gigantycznego zużycia prądu i wody przez ChatGPT, podając konkretne liczby i kwestionując najbardziej sensacyjne szacunki.

Artykuł jest skierowany do osób, które słyszały o „głodnych prądu” i „marnujących wodę” modelach AI, ale chcą oddzielić nagłówki medialne od rzetelnych danych. To także lektura dla decydentów biznesowych planujących wdrożenia rozwiązań opartych na AI i szukających wiarygodnych informacji o śladzie środowiskowym takich usług.

Aby uporządkować dyskusję, warto bardzo krótko wyjaśnić, czym są duże modele językowe (LLM). To systemy uczące się na ogromnych zbiorach tekstu, które potrafią generować odpowiedzi w języku naturalnym, pisać kod, streszczać dokumenty czy analizować dane. Nie działają one „magicznie” w chmurze, lecz na wyspecjalizowanych serwerach w centrach danych, wyposażonych w układy GPU lub inne akceleratory. Każde zapytanie użytkownika oznacza pracę tych układów, przepływ danych siecią i wykorzystanie systemów chłodzenia – a więc zużycie energii i, pośrednio, wody.

W dalszej części przyjrzymy się bliżej, co dokładnie zarzuca się ChatGPT, jakie liczby przedstawia Sam Altman, jak AI wypada na tle innych technologii cyfrowych oraz jakie konsekwencje środowiskowe i biznesowe wiążą się z masowym wdrażaniem generatywnej AI.

Co dokładnie zarzuca się ChatGPT? Mity i fakty o energii oraz wodzie

Energia: między nagłówkami a realnymi wartościami

W debacie publicznej powtarzają się dramatyczne stwierdzenia, że „AI zużyje tyle prądu, co małe państwo” albo że „każde zapytanie do ChatGPT ma ogromny koszt energetyczny”. Takie hasła dobrze brzmią w tytułach artykułów, ale rzadko towarzyszy im wyjaśnienie, skąd pochodzą liczby i czego dokładnie dotyczą.

Kluczowe jest rozróżnienie dwóch faz pracy dużego modelu językowego:

  • Trenowanie modelu – jednorazowy, bardzo intensywny proces, w którym model uczy się na olbrzymich zbiorach danych. Może trwać tygodnie, angażując tysiące układów GPU, i rzeczywiście wiąże się z dużym zużyciem energii.
  • Inferencja – czyli generowanie odpowiedzi na pojedyncze zapytania użytkowników po zakończeniu treningu. To faza rozproszona w czasie, codzienna, ale w przeliczeniu na jedno zapytanie zużycie energii jest znacznie niższe.

W wypowiedziach Sama Altmana pojawia się liczba rzędu 0,34 Wh energii elektrycznej na jedno przeciętne zapytanie do ChatGPT. To wartość orientacyjna, która ma pokazać rząd wielkości, a nie precyzyjny pomiar dla każdego scenariusza. W praktyce zużycie zależy od generacji modelu, długości odpowiedzi, architektury serwerów, sprawności zasilania i chłodzenia.

Aby przełożyć to na coś bardziej intuicyjnego: 0,34 Wh to mniej więcej tyle, ile zużyłaby energooszczędna żarówka LED o mocy 8–10 W świecąca przez kilka minut. Pojedyncze zapytanie nie jest więc „energetycznym potworem”. Problem pojawia się dopiero wtedy, gdy takich zapytań są miliardy dziennie, a modele stają się coraz większe i bardziej złożone.

Woda: od chłodzenia wyparnego do nowych technologii

Drugi wątek krytyki wobec AI dotyczy wody. Pojawiły się szeroko cytowane szacunki mówiące o „kilkunastu czy kilkudziesięciu galonach wody na jedno zapytanie” do ChatGPT. Liczby w rodzaju „17 galonów na prompt” obiegły media społecznościowe i zostały powielone w wielu artykułach, często bez głębszej analizy metodologii.

Skąd w ogóle woda w równaniu AI? Centra danych generują ogromne ilości ciepła i muszą być chłodzone. Jedną z historycznie popularnych metod było chłodzenie wyparne, w którym woda odparowuje, odbierając ciepło z instalacji. Przy dużych farmach serwerów oznaczało to istotne, często kontrowersyjne zużycie wody, szczególnie w regionach narażonych na suszę.

Szacunki typu „X galonów na jedno zapytanie” powstały najczęściej poprzez podział całkowitego rocznego zużycia wody przez daną infrastrukturę na liczbę obsłużonych zapytań w danym okresie. Dodatkowo opierały się one na założeniach dotyczących starszych technologii chłodzenia i konkretnych lokalizacji centrów danych. Taka metoda daje głośne, ale bardzo uproszczone liczby, które nie oddają aktualnego profilu zużycia zasobów.

Sam Altman określa te konkretne wartości mianem całkowicie oderwanych od rzeczywistości. Zwraca uwagę, że jego firma nie korzysta już z chłodzenia wyparnego w swoich kluczowych centrach danych, preferując rozwiązania oparte na obiegach zamkniętych, bardziej zaawansowanym projektowaniu infrastruktury i lokalizowaniu serwerowni tam, gdzie dostęp do wody i energii jest bardziej zrównoważony.

Nie oznacza to, że problem nie istnieje. Systemy chłodzenia wciąż wymagają energii i – w wielu przypadkach – wody, a ich wpływ na lokalne środowisko może być znaczący. Rzecz w tym, by odróżnić sensacyjne, często przestarzałe twierdzenia od aktualnych danych i realnych wyzwań związanych z modernizacją infrastruktury data center.

Jak Sam Altman odpowiada na krytykę: liczby, analogie i granice tej narracji

W odpowiedziach na zarzuty o nadmierne zużycie energii i wody Sam Altman stosuje kilka stałych motywów. Po pierwsze, kwestionuje krążące w sieci szacunki zużycia wody na jedno zapytanie, podkreślając, że opierają się one na modelu chłodzenia, którego jego firma już nie stosuje. Przypomina, że w systemach wyparnych rzeczywiście występuje znaczące parowanie wody, ale nowsze centra danych są projektowane tak, aby minimalizować ten efekt, korzystając z bardziej zaawansowanych układów chłodzenia cieczą, wymiany ciepła i lepszej optymalizacji przepływu powietrza.

Po drugie, Altman przywołuje wspomniane wcześniej orientacyjne zużycie energii na zapytanie – około 0,34 Wh – i ilustruje je prostymi analogiami: pojedyncza interakcja z modelem ma być równoważna kilku minutom świecenia żarówki LED czy niewielkiemu ułamkowi dobowego zużycia energii przez smartfon. Tego rodzaju porównania mają osadzić AI w kontekście codziennych aktywności cyfrowych, które użytkownicy intuicyjnie rozumieją.

Trzeci element jego narracji to znacznie bardziej kontrowersyjna analogia, w której zestawia energię potrzebną do wytrenowania dużego modelu AI z „treningiem” człowieka – od dzieciństwa po dorosłość. Zwraca uwagę, że wychowanie osoby zdolnej do wykonywania wysoko wyspecjalizowanych zadań wymaga lat edukacji, ogromnych ilości żywności, transportu i infrastruktury, których łączny koszt energetyczny jest gigantyczny. W tym ujęciu porównywanie kilkudniowego treningu modelu na klastrze GPU z „kosztem energetycznym” ludzkiego życia ma być, w jego ocenie, nieuczciwe.

Z punktu widzenia analizy energetycznej jest to jednak przede wszystkim figura retoryczna. Trudno w sposób rzetelny zestawić złożony cykl życia człowieka – obejmujący także wkład w gospodarkę, relacje społeczne czy procesy demokratyczne – z wyspecjalizowanym modelem o wąsko zdefiniowanym zadaniu. Ryzyko polega na odwracaniu uwagi od zasadniczego pytania: jak szybko i jak bardzo rosnąć będzie całkowite zapotrzebowanie na energię ze strony sektora AI.

Warto zaznaczyć, że sam Altman przyznaje, iż skala zużycia energii przez całą branżę AI jest realnym problemem. Wskazuje na konieczność gwałtownej transformacji energetycznej – inwestycje w odnawialne źródła energii oraz energetykę jądrową – i deklaruje, że jego firma angażuje znaczne środki w projekty związane z energią słoneczną, wiatrową i reaktorami nowej generacji. Ten wątek pojawia się także w analizach organizacji takich jak Międzynarodowa Agencja Energetyczna, która prognozuje, że centra danych, w tym te obsługujące AI, będą jednym z kluczowych źródeł przyrostu zapotrzebowania na prąd w kolejnych latach.

Silną stroną tej narracji jest próba korygowania fałszywych liczb i osadzenia AI w szerszym krajobrazie cyfrowym, tak aby pojedyncze zapytanie nie było demonizowane. Słabszym elementem pozostaje ryzyko bagatelizowania lokalnych skutków nowych centrów danych – takich jak presja na sieć energetyczną w konkretnym regionie czy wpływ na dostępność wody – oraz przesuwanie dyskusji w stronę abstrakcyjnych porównań z „treningiem” człowieka zamiast transparentnych danych o realnych potrzebach infrastruktury.

Ślad węglowy AI na tle innych technologii cyfrowych i codziennych aktywności

Cała gospodarka cyfrowa – obejmująca centra danych, sieci telekomunikacyjne i urządzenia końcowe – odpowiada dziś za kilka procent globalnego zużycia energii elektrycznej i znaczącą część emisji CO₂. W różnych szacunkach porównuje się jej ślad węglowy z branżą lotniczą lub wskazuje, że przewyższa on emisje niektórych sektorów przemysłowych. W tym pejzażu AI jest jednym z najszybciej rosnących komponentów.

Duże modele językowe są wyjątkowo energochłonne w fazie trenowania, ale w codziennym użytkowaniu pojedyncze zapytanie nie musi być drastycznie bardziej kosztowne energetycznie niż inne usługi w chmurze. Pomocne jest tu porównanie kilku typowych aktywności cyfrowych:

  • Jedno średnie zapytanie do ChatGPT – rząd dziesiątych części watogodziny. To porównywalne z krótkim wyszukiwaniem w sieci czy przetworzeniem niewielkiego dokumentu w usłudze chmurowej.
  • Obejrzenie kilkuminutowego filmu w serwisie streamingowym – to nie tylko praca serwerów, ale też transmisja danych i zużycie energii przez telewizor lub smartfon. Ślad bywa większy niż w przypadku pojedynczej interakcji z modelem tekstowym.
  • Kilka godzin scrollowania mediów społecznościowych – ciągłe ładowanie treści, reklamy wideo, algorytmy rekomendacji i praca ekranu przekładają się na większe zużycie energii niż kilka krótkich zapytań tekstowych.
  • Wysłanie maila z dużym załącznikiem – w przeliczeniu na jedno zdarzenie to wciąż niewielki ślad, ale przy miliardach wiadomości dziennie generuje on istotne obciążenie infrastruktury.

Wszystkie te porównania mają charakter przybliżony i służą jedynie uporządkowaniu skali. Wyraźnie pokazują jednak, że pojedyncze wywołanie modelu generatywnego nie jest w oderwaniu od reszty cyfrowego ekosystemu czymś nadzwyczajnym.

Wyzwanie polega na trendzie: jeśli generatywna AI zostanie wbudowana w niemal każdą usługę – od wyszukiwarki, przez pocztę i CRM, po oprogramowanie biurowe i systemy finansowe – liczba zapytań może rosnąć wykładniczo. W efekcie nawet relatywnie niewielkie zużycie energii na jedno wywołanie będzie się sumować w znaczący dodatkowy popyt na prąd i – pośrednio – emisje gazów cieplarnianych.

Dla biznesu znacznie ważniejsze od sensacyjnych liczb per zapytanie jest zrozumienie udziału usług AI w całościowym rachunku energetycznym firmy. Kluczowe decyzje dotyczą wyboru dostawców chmury, architektury systemów i sposobu integracji modeli. Przykładowo projektując aplikacje wykorzystujące modele OpenAI – na przykład zgodnie z podejściem opisanym w materiale „A Step-by-Step Tutorial on How to Use OpenAI API in Node.js” – można wprost wpływać na liczbę i długość zapytań, wdrażać mechanizmy cache’owania wyników oraz dobierać mniejsze, tańsze energetycznie modele tam, gdzie to wystarcza.

Czy obawy są uzasadnione? Realne ryzyka środowiskowe i ich konsekwencje dla biznesu

Skala globalna

Analizując ryzyka środowiskowe związane z AI, warto oddzielić emocje od faktów. Jedno zapytanie do modelu nie stanowi katastrofy klimatycznej, ale przy miliardach takich zapytań dziennie, rosnącej złożoności modeli i rozszerzaniu zastosowań, całkowite zużycie energii przez infrastrukturę AI może rosnąć bardzo szybko. To właśnie suma, a nie jednostkowy koszt, jest przedmiotem rosnącej uwagi regulatorów i organizacji międzynarodowych.

Nowe centra danych oznaczają konieczność wzmocnienia sieci energetycznych, budowy dodatkowych źródeł mocy i transformatorów. W niektórych lokalizacjach rodzi to obawy o wzrost cen energii dla gospodarstw domowych i przemysłu, a w regionach o ograniczonych zasobach wodnych – także o presję na lokalne ekosystemy. Część rządów i instytucji już dziś dyskutuje o wprowadzeniu standardów efektywności energetycznej dla data center, obowiązków raportowania śladu węglowego usług cyfrowych oraz wymogów dotyczących miksu energetycznego używanego przez operatorów chmurowych.

Skala lokalna i sektorowa

Wpływ AI nie rozkłada się równomiernie geograficznie. Regiony, w których koncentrują się duże ośrodki przetwarzania danych, odczuwają skutki infrastrukturalne znacznie silniej niż użytkownik, który z laptopa lub telefonu łączy się z chmurą. Dla samorządów i regulatorów lokalnych to realne wyzwanie związane z planowaniem przestrzennym, dostępnością gruntów, siecią przesyłową i zasobami wodnymi.

Dla firm korzystających z AI kluczowe jest natomiast powiązanie tych wyzwań z własnymi strategiami ESG. Usługi chmurowe i AI wchodzą w zakres emisji pośrednich (Scope 3), a coraz więcej regulacji wymaga od dużych przedsiębiorstw raportowania pełnego łańcucha wpływu środowiskowego. Oznacza to konieczność pozyskiwania od dostawców danych o emisjach „przypadających” na konkretne usługi oraz włączania ich do niefinansowych raportów rocznych.

Percepcja i reputacja

Nawet najbardziej precyzyjne dane nie funkcjonują w próżni – równoległe znaczenie ma narracja medialna i społeczna. Firmy, które wdrażają generatywną AI bez refleksji nad wpływem środowiskowym, ryzykują oskarżenia o greenwashing lub ignorowanie odpowiedzialności klimatycznej. Z drugiej strony, przesadne demonizowanie AI bez rozróżnienia pomiędzy rzetelnymi danymi a mitami również utrudnia rzeczową dyskusję.

Debata o odpowiedzialności w rozwoju AI wykracza zresztą daleko poza klimat. Przykładem jest dyskusja o militarnych zastosowaniach systemów generatywnych, którą szerzej opisuje tekst „Pentagon kontra Anthropic: jak „sumienie” sztucznej inteligencji zmienia debatę o wojnie i bezpieczeństwie”. Środowiskowy ślad AI jest jednym z elementów szerszej układanki dotyczącej tego, jak duzi gracze technologiczni rozumieją swoją odpowiedzialność wobec społeczeństwa.

Co mogą zrobić firmy i użytkownicy, by ograniczyć ślad środowiskowy AI

Działania po stronie firm

Z punktu widzenia przedsiębiorstw najbardziej konstruktywne jest podejście oparte na pragmatyzmie. Po pierwsze, przy wyborze dostawcy platformy AI warto uwzględniać nie tylko cenę i funkcjonalność, ale także deklarowaną efektywność energetyczną, miks energetyczny centrów danych (udział odnawialnych źródeł, plany inwestycji w energetykę jądrową), a także zobowiązania klimatyczne i przejrzystość raportowania emisji.

Po drugie, ogromne znaczenie ma architektura rozwiązań. Projektując aplikacje oparte na modelach generatywnych, warto:

  • minimalizować liczbę i złożoność zapytań (np. poprzez batchowanie wielu żądań w jedno wywołanie),
  • wprowadzać cache’owanie rezultatów w przypadkach, gdy odpowiedzi często się powtarzają,
  • dobierać mniejsze, wyspecjalizowane modele tam, gdzie nie jest konieczna moc największych systemów,
  • optymalizować długość generowanych odpowiedzi, unikając „przegadanych” wyników.

Dla zespołów programistycznych oznacza to, że efektywność zasobowa powinna stać się jednym z kluczowych wymogów niefunkcjonalnych – obok bezpieczeństwa, skalowalności czy niezawodności. Wspomniany wcześniej poradnik „A Step-by-Step Tutorial on How to Use OpenAI API in Node.js” pokazuje, jak krok po kroku budować aplikacje oparte na API; uzupełnieniem takiego podejścia powinno być świadome zarządzanie liczbą wywołań i doborem modeli pod kątem efektywności energetycznej.

Po trzecie, istotna jest wewnętrzna polityka wykorzystania generatywnej AI. Firmy mogą promować stosowanie takich narzędzi przede wszystkim tam, gdzie przynoszą one wyraźną wartość biznesową – w optymalizacji procesów, automatyzacji zadań o wysokiej powtarzalności czy wsparciu analitycznym – a jednocześnie ograniczać wykorzystanie czysto rozrywkowe w ramach zasobów firmowych.

Wreszcie, przedsiębiorstwa powinny włączać usługi AI do kalkulacji swojego śladu węglowego i wodnego. Oznacza to dialog z dostawcami chmury i platform AI w celu pozyskania danych o emisyjności usług oraz uwzględnianie ich w raportowaniu ESG.

Świadome wybory użytkowników indywidualnych

Pojedynczy użytkownik nie ma bezpośredniego wpływu na to, czy dane centrum danych będzie chłodzone w obiegu zamkniętym, ani na to, jaki miks energetyczny zasila daną serwerownię. Może jednak podejmować kilka świadomych decyzji:

  • używać AI z umiarem, nie generując tysięcy zbędnych zapytań wyłącznie z ciekawości lub z nudów,
  • preferować usługi i firmy, które w przejrzysty sposób informują o swoim wpływie na środowisko i planach redukcji emisji,
  • doceniać zastosowania AI, które realnie zwiększają efektywność innych procesów – od optymalizacji tras logistycznych po automatyzację żmudnych zadań biurowych – co w skali systemu może prowadzić do oszczędności energii i zasobów.

Rozwój AI nie musi automatycznie oznaczać katastrofy klimatycznej. Kluczowe jest to, w jaki sposób dostawcy, regulatorzy i klienci będą zarządzać skalą i kierunkiem inwestycji w infrastrukturę. Decyzje podejmowane dziś – dotyczące lokalizacji nowych centrów danych, stosowanych technologii chłodzenia i powiązania ich z konkretnymi źródłami energii – zaważą na środowiskowym profilu AI w kolejnej dekadzie.

W tym kontekście interesujące są także alternatywne modele rozwoju AI, takie jak bardziej otwarte, tokenizowane platformy czy systemy zdecentralizowane, które mogą zmienić sposób dystrybucji kosztów energetycznych i decyzji o infrastrukturze. Jeden z takich scenariuszy omawia tekst „Sentient kontra giganci AI: czy otwarta, tokenizowana platforma AGI ma realne szanse?”, pokazując, że architektura ekosystemu ma bezpośrednie przełożenie na to, gdzie i jak zużywana jest energia.

Jak odpowiedzialnie rozwijać i regulować AI w kontekście klimatu i zasobów

Pytanie o to, ile prądu i wody zużywa AI, jest częścią szerszego wyzwania: jak odpowiedzialnie rozwijać przełomową technologię w świecie ograniczonych zasobów i nasilającego się kryzysu klimatycznego. Odpowiedź wymaga współdziałania trzech grup aktorów.

Po pierwsze, odpowiedzialność spoczywa na dużych firmach technologicznych budujących i utrzymujących infrastrukturę AI. To one decydują o projektowaniu centrów danych, wyborze lokalizacji, inwestycjach w efektywność energetyczną, systemach chłodzenia i miksie energetycznym. Coraz więcej z nich deklaruje finansowanie własnych źródeł energii odnawialnej czy udział w projektach energetyki jądrowej oraz ograniczanie zużycia wody pitnej na rzecz obiegów zamkniętych i wody niższej jakości. Kluczowe jest jednak, by te deklaracje były weryfikowane przez niezależne audyty i przekładane na transparentne raportowanie.

Po drugie, istotna jest rola regulatorów i polityk publicznych. Możliwe kierunki działań obejmują:

  • ustanowienie standardów efektywności energetycznej dla centrów danych,
  • wprowadzenie obowiązku raportowania śladu środowiskowego usług cyfrowych – w tym AI – w ujednoliconej, porównywalnej formie,
  • zachęty fiskalne do inwestycji w zieloną energię i innowacyjne technologie chłodzenia,
  • w szczególnie wrażliwych regionach – ewentualne limity dotyczące zużycia wody czy lokalizacji nowych, bardzo energochłonnych instalacji.

Po trzecie, nie można pominąć roli społeczeństwa i mediów. Rzetelna debata wymaga odporności zarówno na sensacyjne nagłówki, jak i na bezrefleksyjny entuzjazm technologiczny. Krytyczne pytania o energię i wodę są nie tylko uzasadnione, ale wręcz konieczne – również wtedy, gdy liderzy branży, tacy jak Sam Altman, kwestionują konkretne liczby. Zadaniem opinii publicznej jest domaganie się danych, a nie zadowalanie się retorycznymi analogiami.

W długim horyzoncie AI może być zarówno częścią problemu, jak i częścią rozwiązania. Z jednej strony rosnące zapotrzebowanie na moc obliczeniową zwiększa presję na systemy energetyczne. Z drugiej – algorytmy mogą pomagać w optymalizacji sieci elektroenergetycznych, prognozowaniu popytu, zwiększaniu efektywności przemysłu i transportu. Bilans netto zależeć będzie od tego, czy uda się ukierunkować rozwój AI tak, by uzyskane oszczędności energii i zasobów przewyższyły dodatkowe zużycie generowane przez samą technologię.

Podsumowując, obawy dotyczące zużycia energii i wody przez sztuczną inteligencję są w dużej mierze uzasadnione na poziomie makro i lokalnej infrastruktury, choć jednocześnie wiele popularnych „liczb z internetu” jest nieaktualnych, uproszczonych lub odnosi się do dawno porzuconych rozwiązań technicznych. Pojedyncze zapytanie do ChatGPT nie jest samo w sobie środowiskową katastrofą. Prawdziwe wyzwanie leży w tempie i sposobie skalowania całej branży – w tym, ile i jakich centrów danych powstanie, jak będą one zasilane i chłodzone oraz w jaki sposób wbudujemy AI w codzienne procesy biznesowe.

Każdy czytelnik, niezależnie od tego, czy występuje w roli użytkownika, decydenta biznesowego czy członka społeczeństwa obywatelskiego, ma realny wpływ na kierunek tego rozwoju: poprzez wybory dostawców, projektowanie rozwiązań, wymaganie przejrzystości i wspieranie rozsądnych regulacji. Odpowiedzialny rozwój AI nie może abstrahować od ograniczeń naszej planety – ale też nie musi z góry oznaczać porażki w walce z kryzysem klimatycznym. To, jak wykorzystamy tę technologię, pozostaje w dużej mierze kwestią zbiorowych decyzji podejmowanych dzisiaj.


Leave a Reply

Your email address will not be published. Required fields are marked *