Od greenwashingu do paniki klimatycznej: jak naprawdę mówić o śladzie środowiskowym AI

Od greenwashingu do paniki klimatycznej: jak naprawdę mówić o śladzie środowiskowym AI

Dlaczego zużycie energii przez AI stało się tematem politycznym i wizerunkowym

W ciągu zaledwie kilku lat generatywna sztuczna inteligencja – systemy takie jak ChatGPT czy inne duże modele językowe – przeszła drogę od eksperymentu technologicznego do masowego narzędzia wykorzystywanego w pracy, edukacji i rozrywce. Za tym skokiem popularności stoi jednak równie gwałtowny wzrost zapotrzebowania na moc obliczeniową, a więc na energię elektryczną i wodę potrzebną do chłodzenia infrastruktury. To, co jeszcze niedawno było wewnętrznym problemem działów IT i operatorów centrów danych, stało się dziś kwestią polityczną, regulacyjną i wizerunkową dla całego sektora Big Tech.

Debata o klimacie i transformacji energetycznej sprawia, że pytanie „ile prądu i wody zużywa AI?” nie jest już wyłącznie techniczną ciekawostką. Wysoka inflacja cen energii, cele klimatyczne Unii Europejskiej, presja inwestorów ESG i coraz bardziej świadomi konsumenci powodują, że każda nowa energochłonna technologia staje się tematem sporów publicznych. W przypadku AI w grę wchodzi dodatkowo globalna skala: miliardy zapytań dziennie, setki ogromnych centrów danych i rosnące znaczenie dostawców chmury w infrastrukturze krytycznej państw.

Nieprzypadkowo liderzy branży starają się kształtować narrację wokół energetycznego kosztu sztucznej inteligencji. Sam Altman, prezes jednej z najważniejszych firm rozwijających generatywne modele, porównywał publicznie koszty energetyczne szkolenia AI do wieloletnich kosztów „szkolenia” człowieka – nauki, wychowania, produkcji żywności – oraz do miliardów lat ewolucji, która również pochłaniała ogromne ilości energii. Tego typu porównania mają budzić skojarzenie, że w perspektywie historii życia na Ziemi i rozwoju cywilizacji dodatkowe zużycie prądu na potrzeby AI jest znikome. W istocie nie są one jednak neutralnym faktem, lecz elementem strategii komunikacyjnej.

Altman uspokajał również opinię publiczną, podkreślając, że firma zrezygnowała z bardziej wodochłonnych metod chłodzenia wyparnego, a jedno zapytanie do modelu ma koszt energetyczny rzędu około 0,34 Wh – mniej więcej tyle, ile kilka minut świecenia energooszczędnej żarówki. Taka rama komunikacji koncentruje uwagę na małej wartości jednostkowej, odwracając ją od realnej skali całego systemu.

Celem tego artykułu nie jest demonizowanie sztucznej inteligencji ani straszenie „apokalipsą klimatyczną wywołaną przez ChatGPT”. Ambicją jest raczej pokazanie, w jaki sposób język PR, selektywne używanie liczb i greenwashing utrudniają rzetelną debatę o relacji „ekologia a sztuczna inteligencja”. Tekst jest adresowany do osób, które szukają „prawdy o zużyciu energii przez AI” i chcą lepiej rozumieć, co kryje się za hasłami o „zielonej chmurze” i „neutralności klimatycznej” Big Tech.

Co naprawdę zużywa prąd i wodę w systemach AI

Aby zrozumieć ślad środowiskowy AI, warto zacząć od podstaw: jak wygląda typowa infrastruktura stojąca za chatbotem, asystentem głosowym czy systemem rekomendacji. W uproszczeniu to kilka warstw.

Po pierwsze, centra danych – ogromne obiekty, w których znajdują się tysiące serwerów i specjalistycznych procesorów (GPU, TPU i inne akceleratory). To one wykonują obliczenia potrzebne zarówno do trenowania modeli, jak i do ich codziennego działania. Po drugie, same serwery i układy scalone, które zamieniają energię elektryczną na ciepło, wymagając intensywnego chłodzenia. Po trzecie, systemy chłodzenia: od klasycznych instalacji klimatyzacyjnych, przez chłodzenie cieczą, po rozwiązania wyparne, w których ogromne ilości wody odparowuje się, by obniżyć temperaturę sprzętu. Wreszcie po czwarte, sieci przesyłowe i urządzenia sieciowe, dzięki którym dane przemieszczają się między użytkownikami, centrami danych i innymi usługami w chmurze.

W tym środowisku warto odróżnić dwie fazy cyklu życia dużego modelu AI. Pierwsza to trening, czyli proces uczenia modelu na gigantycznych zbiorach danych. Trening flagowych systemów generatywnych trwa tygodniami lub miesiącami i angażuje tysiące specjalistycznych procesorów pracujących niemal bez przerwy. To moment, gdy zużycie energii i wody osiąga ekstremalnie wysokie poziomy w stosunkowo krótkim czasie.

Druga faza to inferencja – odpowiadanie na zapytania użytkowników, generowanie tekstu, obrazów czy kodu. Pojedyncza odpowiedź może rzeczywiście wymagać stosunkowo niewielkiej ilości energii, liczona jest ona jednak w milionach lub miliardach zapytań dziennie. W tym kontekście przywoływany przez Altmana szacunek rzędu 0,34 Wh na jedno zapytanie brzmi niewinnie, dopóki nie pomnożymy go przez globalną liczbę interakcji z systemem.

Aby uporządkować debatę, przydatne są trzy pojęcia. Pierwsze to zużycie energii, najczęściej podawane w kilowatogodzinach (kWh) lub megawatogodzinach (MWh). Drugie to ślad węglowy, wyrażany zwykle w ekwiwalencie dwutlenku węgla (CO₂e), który uwzględnia nie tylko CO₂, ale także inne gazy cieplarniane przeliczone na wspólną jednostkę. Trzecie to zużycie wody, w litrach lub metrach sześciennych, z uwzględnieniem metod chłodzenia – szczególnie istotne są systemy chłodzenia wyparnego w regionach dotkniętych deficytem wody.

Kluczowy jest także miks energetyczny, czyli struktura źródeł energii zasilających dane centrum danych: jaki udział ma energia odnawialna (wiatr, słońce, hydro, biomasa), a jaki – paliwa kopalne, takie jak węgiel, gaz czy ropa. Ta sama ilość energii elektrycznej może mieć zupełnie inny ślad węglowy w zależności od tego, czy pochodzi z farmy wiatrowej, czy z elektrowni węglowej.

Firmy technologiczne bardzo często operują tymi pojęciami selektywnie, eksponując wskaźniki korzystne wizerunkowo, a pomijając te, które pokazują pełen koszt środowiskowy. Szczegółowe omówienie architektury technicznej, w tym modeli językowych wdrażanych w biznesie, można znaleźć w materiale praktyczny przewodnik po nowej infrastrukturze AI dla biznesu, tutaj skupmy się jednak na warstwie komunikacji i interpretacji danych.

Strategie PR Big Tech: jak narracja przykrywa ślad środowiskowy AI

Kiedy stawką są miliardy dolarów inwestycji i reputacja firm będących symbolami postępu technologicznego, język używany w komunikacji na temat energii i klimatu nie jest przypadkowy. Można wyróżnić kilka powtarzających się strategii, które pojawiają się w wystąpieniach prezesów, materiałach marketingowych i raportach ESG.

Po pierwsze, przesuwanie uwagi z aktualnych kosztów na hipotetyczne przyszłe korzyści. Narracja brzmi zwykle tak: „Tak, AI zużywa więcej energii, ale dzięki niej zoptymalizujemy systemy energetyczne, zredukujemy emisje w transporcie czy rolnictwie, więc bilans netto będzie pozytywny”. To możliwy scenariusz, ale jednocześnie wygodny sposób, by nie odpowiadać na pytanie o dzisiejszy, mierzalny ślad węglowy i wodny konkretnych usług.

Po drugie, stosowanie porównań mających emocjonalnie uspokajać odbiorcę. Gdy Sam Altman przeciwstawia jednorazowy koszt energetyczny treningu modelu dziesięcioleciom „szkolenia” człowieka czy miliardom lat ewolucji pochłaniającej energię Słońca, buduje wrażenie, że nowe systemy są jedynie kolejnym etapem naturalnego procesu. Nie jest to jednak metryka, którą można wprost włączyć do rachunku klimatycznego – to raczej retoryczny zabieg mający zrelatywizować skalę problemu.

Po trzecie, podkreślanie inwestycji w odnawialne źródła energii i „zielone centra danych” bez podawania pełnych, porównywalnych danych liczbowych. Występują deklaracje o miliardowych wydatkach na farmy słoneczne czy wiatrowe, ale rzadko towarzyszy im informacja, jaki procent całkowitego zużycia energii danej firmy pokryją te projekty, w jakim horyzoncie czasowym i z jakim skutkiem dla realnych emisji.

Po czwarte, fragmentaryzacja odpowiedzialności. Zamiast mówić o śladzie węglowym własnych usług, firmy chętnie używają sformułowań typu „branża AI musi stawić czoła wyzwaniu energetycznemu” lub „ekosystem technologiczny pracuje nad rozwiązaniami”. Rozmywa to granice odpowiedzialności i utrudnia wskazanie, które konkretne decyzje produktowe czy lokalizacyjne generują największe obciążenia środowiskowe.

Altman w swoich wypowiedziach publicznie bagatelizował niektóre obawy dotyczące zużycia wody i energii przez popularne chatboty, zwracając uwagę, że firma porzuciła bardziej wodochłonne metody chłodzenia oraz że koszt energetyczny pojedynczego zapytania jest bardzo niski. To komunikaty budujące obraz technologii jako zasadniczo „lekkiej” środowiskowo. Nie zastępują one jednak przejrzystości danych: pełnego bilansu energii, wody i emisji dla konkretnego produktu oraz niezależnej weryfikacji przywoływanych liczb.

Dla świadomego odbiorcy kluczem jest rozpoznawanie takich zabiegów. Warto zwracać uwagę, czy w wypowiedziach CEO, raportach rocznych i komunikatach prasowych pojawiają się konkretne wartości, przedziały, metodologie liczenia, czy też wyłącznie ogólne zapewnienia o „odpowiedzialności” i „zrównoważonym rozwoju”. Właśnie w tym miejscu zaczyna się obszar, który coraz częściej określa się mianem greenwashingu.

Greenwashing w AI: kiedy „zielona” narracja staje się manipulacją

Greenwashing to praktyka przedstawiania się jako bardziej przyjazny środowisku, niż wynika to z faktów. W sektorze technologicznym przybiera on postać ogłaszania „neutralności klimatycznej”, która w rzeczywistości opiera się głównie na zakupie offsetów węglowych, bez realnej redukcji zużycia energii czy emisji w całym łańcuchu dostaw. Inną formą jest wybiórcze raportowanie tylko tych wskaźników, które wypadają korzystnie, oraz przemilczanie pozostałych.

W kontekście AI można wskazać kilka typowych schematów greenwashingu:

  • Eksponowanie „zielonych centrów danych” – zasilanych częściowo energią odnawialną lub chłodzonych w bardziej efektywny sposób – bez pokazania globalnego śladu środowiskowego wszystkich modeli danej firmy. Pojedyncza, nowoczesna serwerownia staje się bohaterem komunikacji, podczas gdy setki starszych obiektów pozostają poza kadrem.
  • Podawanie zużycia energii wyłącznie w przeliczeniu na jedno zapytanie, bez danych w skali miesiąca, roku czy miliardów interakcji. Informacja „0,34 Wh na zapytanie” brzmi uspokajająco, ale nie pozwala zrozumieć systemowego obciążenia infrastruktury.
  • Utożsamianie zakupu certyfikatów energii odnawialnej (tzw. RECs, gwarancje pochodzenia) z pełną dekarbonizacją. W rzeczywistości certyfikaty często nie oznaczają, że w momencie zużycia energii przez centrum danych prąd w sieci pochodził faktycznie z OZE; są raczej mechanizmem finansowego wsparcia zielonej generacji, którego realny wpływ na emisje zależy od wielu czynników.
  • Przedstawianie AI niemal wyłącznie jako narzędzia walki z kryzysem klimatycznym: optymalizacji zużycia energii, inteligentnych sieci czy rolnictwa precyzyjnego. Bilans kosztów – zużycie energii na trening i inferencję, produkcja sprzętu, woda do chłodzenia – często zostaje zepchnięty na drugi plan.

Aby lepiej zobrazować, jak działa retoryka „to tylko kilka minut pracy żarówki”, warto sięgnąć po prosty przykład liczbowy. Załóżmy, że jedno zapytanie do dużego modelu zużywa 0,34 Wh. Jeśli dziennie wykonuje się 200 milionów zapytań (co w skali globalnych usług nie jest wartością niewyobrażalną), oznacza to zużycie 68 000 000 Wh, czyli 68 MWh dziennie. W skali roku daje to około 24 820 MWh. To energia, która w wielu krajach wystarczyłaby do zasilenia dziesiątek tysięcy gospodarstw domowych. Rzeczywiste liczby mogą się różnić w zależności od architektury i efektywności, ale mechanizm rozbieżności między „mikro” a „makro” pozostaje ten sam.

Nie oznacza to, że deklaracje o inwestycjach w zieloną energię są bezwartościowe. Część firm – w tym dostawcy największych modeli LLM – faktycznie przeznacza znaczne środki na rozwój energetyki słonecznej, wiatrowej czy nawet jądrowej jako odpowiedź na rosnące potrzeby infrastruktury AI. Również Sam Altman podkreślał znaczenie tych inwestycji. Informacje te są jednak elementem strategii PR i powinny być oceniane w świetle twardych danych: jaki procent aktualnego zużycia pokrywają, jak wpływają na emisje w całym łańcuchu oraz czy towarzyszy im poprawa efektywności energetycznej samych modeli.

Jak firmy manipulują liczbami: od wyboru jednostek po brak kontekstu

Greenwashing nie zawsze polega na podawaniu fałszywych danych. Częściej jest to kwestia tego, jak liczby są prezentowane. Subtelne decyzje o doborze jednostek, horyzontu czasowego czy poziomu agregacji mogą diametralnie zmienić odbiór tej samej informacji.

Jedną z częstych technik jest wybór jednostek, które minimalizują percepcję skali. Zamiast mówić o kilowatogodzinach (kWh), pojawiają się watogodziny (Wh); zamiast rocznego zużycia energii przez całą usługę – średni koszt na pojedyncze zapytanie. Innym zabiegiem jest brak punktu odniesienia: liczby GWh wyglądają abstrakcyjnie, jeśli nie wiemy, czy to dużo, czy mało względem rocznego zużycia energii przez średnie miasto lub dany sektor gospodarki.

Istotny jest także zakres, którego dotyczą dane. W niektórych komunikatach podaje się zużycie energii w fazie inferencji, pomijając koszty energetyczne treningu modelu. W innych – prezentuje się ślad węglowy samego centrum danych, ale nie uwzględnia emisji związanych z produkcją i utylizacją sprzętu (tzw. emisje „ukryte” w łańcuchu dostaw).

Kolejną techniką jest operowanie średnimi, które maskują skrajnie energochłonne operacje. Średni koszt energetyczny zapytania może wyglądać dobrze, jeśli większość interakcji jest krótka, ale część użytkowników generuje bardzo długie konwersacje czy złożone zadania obliczeniowe. To podobny problem jak w innych zastosowaniach AI – na przykład w medycynie. Szczegółowo pokazuje to analiza tekstu szczegółowa analiza jakości deklaracji producentów medycznej AI, gdzie rozbieżność między deklarowanymi średnimi wynikami a zachowaniem systemu w skrajnych przypadkach ma realne konsekwencje dla bezpieczeństwa pacjentów.

Dla czytelnika i dziennikarza przydatna może być prosta check-lista pytań, które warto zadać, widząc dane o zużyciu energii przez AI:

  • Czego tu brakuje? Czy pokazano pełny cykl życia modelu – od treningu po inferencję – oraz łańcuch dostaw sprzętu?
  • Jaki jest horyzont czasowy? Czy mowa o jednym dniu, miesiącu, roku, czy o okresie życia całego modelu?
  • Na jakim poziomie liczone są dane? Jedno zapytanie, jeden użytkownik miesięcznie, wszystkie centra danych na świecie, jeden region?
  • Jak to się ma do liczby użytkowników? Czy wraz z ekspansją geograficzną usługi ślad węglowy rośnie liniowo, czy firma poprawia efektywność?
  • Czy podano źródło i metodologię liczenia? Czy dane poddano niezależnemu audytowi?

Warto też umieć „przeliczyć” komunikaty Big Tech na coś zrozumiałego dla zwykłego użytkownika. Jeśli w komunikacie prasowym czytamy, że dana usługa AI zużywa 500 GWh rocznie, można sprawdzić, ile energii zużywa statystyczne gospodarstwo domowe w naszym kraju i policzyć, ile takich domów mogłoby zasilić 500 GWh. Takie przeliczenia nie wymagają zaawansowanej wiedzy technicznej, a znacząco podnoszą przejrzystość debaty.

Jakie wskaźniki powinien śledzić świadomy użytkownik i dziennikarz

W gąszczu liczb, deklaracji i materiałów marketingowych warto mieć zestaw konkretnych wskaźników, na które należy zwracać uwagę. Inny będzie punkt widzenia codziennego użytkownika usług AI, inny – dziennikarza czy badacza przygotowującego pogłębiony materiał.

Z perspektywy świadomego użytkownika kluczowe są przede wszystkim:

  • Całkowite zużycie energii przez dostawcę usługi, podawane w kWh lub MWh rocznie, najlepiej z podziałem na główne regiony działania.
  • Udział odnawialnych źródeł energii w miksie energetycznym firmy – czy jest to 20%, 60% czy blisko 100%, oraz czy mowa o fizycznym zasilaniu, czy wyłącznie o certyfikatach.
  • Informacje o śladzie węglowym i wodnym przypadającym na jedno wdrożenie modelu w aplikacjach biznesowych lub na użytkownika końcowego.
  • Częstotliwość aktualizacji danych środowiskowych – czy raporty są coroczne, kwartalne, czy jednorazowe.

Dla dziennikarzy, analityków i organizacji pozarządowych ważne są dodatkowo bardziej techniczne metryki:

  • Wskaźnik PUE (Power Usage Effectiveness) dla centrów danych, opisujący stosunek całkowitej energii zużywanej przez obiekt do energii zużywanej bezpośrednio przez sprzęt IT. Im bliżej 1, tym lepiej.
  • Ślad wodny, liczony w litrach lub metrach sześciennych na MWh, z uwzględnieniem lokalnych warunków hydrologicznych.
  • Zakres niezależnych audytów środowiskowych: kto je prowadzi, według jakich standardów (np. ISO) i czy ich wyniki są publicznie dostępne.
  • Struktura geograficzna infrastruktury – czy centra danych zlokalizowane są w regionach o niskim śladzie energetycznym sieci, czy w krajach wciąż opartych na węglu.

Interpretacja tych wskaźników nie wymaga doktoratu z energetyki. Wystarczy świadomość, że PUE poniżej 1,2 oznacza bardzo efektywne centrum danych, wysoki udział OZE realnie zmniejsza ślad węglowy, a częste, audytowane raporty budują zaufanie bardziej niż pojedyncze, efektowne deklaracje. Warto też porównywać dane między dostawcami oraz zadawać pytania o metodologię liczenia.

Przy ocenie wpływu środowiskowego systemów głosowych i asystentów – takich jak nowe wersje Siri, Asystenta Google czy chatbotów osadzonych w urządzeniach mobilnych – przydatne jest spojrzenie na szerszy kontekst wyścigu w AI. Więcej o rozkładzie sił i strategiach największych graczy można znaleźć w analizie szerszy kontekst wyścigu w AI między największymi graczami, co pozwala lepiej zrozumieć, dlaczego poszczególne firmy podejmują tak agresywne decyzje inwestycyjne – również w obszarze energii.

Co możemy zrobić dziś: odpowiedzialne korzystanie z AI i presja na przejrzystość

Sztuczna inteligencja nie jest z definicji wrogiem klimatu. Te same algorytmy, które napędzają czaty i generatory obrazów, mogą wspierać prognozowanie pogody, optymalizację sieci energetycznych, planowanie transportu publicznego czy redukcję marnowania żywności. Problem pojawia się wtedy, gdy rozwój AI odbywa się bez przejrzystej komunikacji o kosztach środowiskowych i bez rzetelnych, porównywalnych danych. W takiej próżni informacyjnej łatwo o greenwashing, uspokajające metafory i polaryzującą panikę klimatyczną.

Odpowiedzialność za zmianę tego stanu rzeczy jest współdzielona. Po stronie Big Tech leży obowiązek publikowania pełnych, audytowalnych danych o zużyciu energii, śladzie węglowym i wodnym, wraz z jasną metodologią liczenia. Firmy nie powinny ograniczać się do podawania liczby w przeliczeniu na jedno zapytanie, ale przedstawiać pełen bilans dla całych usług i regionów. Po stronie regulatorów znajduje się zadanie tworzenia standardów raportowania środowiskowego dla infrastruktury cyfrowej, podobnie jak w przypadku innych sektorów o dużym znaczeniu dla emisji.

Z kolei użytkownicy, media i organizacje społeczne mają prawo – i obowiązek – zadawać trudne pytania. Nieprzyjmowanie na wiarę kojących porównań, domaganie się kontekstu liczbowego, wskazywanie luk w danych i porównywanie praktyk różnych dostawców to realna forma presji, która może wymuszać większą odpowiedzialność. Dziennikarze technologiczni, analitycy rynkowi czy twórcy treści branżowych powinni traktować komunikaty PR jako punkt wyjścia, a nie ostateczne źródło wiedzy.

Na poziomie indywidualnym każdy może ograniczyć zbędne użycie AI. Nie chodzi o to, by całkowicie rezygnować z narzędzi, które realnie poprawiają produktywność, komfort pracy czy dostęp do wiedzy. Warto jednak zadać sobie pytanie, czy każda prosta czynność wymaga wsparcia dużego modelu językowego, czy czasem wystarczy wyszukiwarka lub własna notatka. Automatyzacja tam, gdzie przynosi rzeczywistą wartość, to nie tylko kwestia efektywności biznesowej, ale także mniejszego obciążenia infrastruktury.

Istotny jest też wybór dostawców. Firmy transparentne środowiskowo, publikujące regularne raporty, poddające się niezależnym audytom i inwestujące w efektywność oraz czyste źródła energii, powinny być premiowane przez użytkowników, klientów biznesowych i inwestorów. Wsparcie dla regulacji wymagających ujawniania śladu węglowego i wodnego usług cyfrowych może dodatkowo wzmocnić ten trend.

Osoby zainteresowane biznesowym wymiarem wdrożeń AI – w tym kosztami energetycznymi, optymalizacją infrastruktury i doborem architektury modelu do realnych potrzeb – znajdą więcej informacji w specjalistycznych materiałach o infrastrukturze LLM, takich jak LLM w 2026 roku: praktyczny przewodnik po nowej infrastrukturze AI dla biznesu. To właśnie na styku decyzji technicznych i biznesowych zapadają dziś rozstrzygnięcia o tym, jak duży będzie ślad środowiskowy cyfrowej transformacji.

Świadomość ekologiczna w erze sztucznej inteligencji to coś więcej niż proste pytanie „czy używać ChatGPT”. Decydujące staje się pytanie „na jakich warunkach, z jaką infrastrukturą w tle i za jaką – również środowiskową – cenę”. Dopiero wtedy, gdy znamy odpowiedzi na te pytania, możemy uczciwie ocenić, czy obietnica „zielonej AI” jest realnym planem działania, czy jedynie kolejną narracją stworzoną w gabinetach PR.


Leave a Reply

Your email address will not be published. Required fields are marked *