Czy AI naprawdę pożera prąd i wodę? Rzeczywisty ślad CO₂ ChatGPT i innych modeli

Czy AI naprawdę pożera prąd i wodę? Rzeczywisty ślad CO₂ ChatGPT i innych modeli

Dlaczego wszyscy nagle boją się „ekologicznego koszmaru AI”

Nagłówki w stylu „jedno zapytanie do ChatGPT zużywa dziesiątki litrów wody” czy „AI spali planetę szybciej niż przemysł lotniczy” mają wszystko, czego potrzebuje wirusowy post: prostą tezę, mocną emocję i poczucie nadciągającej katastrofy. W efekcie tysiące osób wpisuje w wyszukiwarkę pytania typu „ChatGPT ile zużywa prądu i wody” czy „jaki jest ślad węglowy sztucznej inteligencji”.

Za tym niepokojem stoi realny problem: sektor AI rośnie wykładniczo, a jego potrzeby energetyczne i wodne zaczynają mieć znaczenie makroekonomiczne. Żeby jednak wyrobić sobie racjonalne zdanie, trzeba oddzielić fakty od uproszczeń. W centrum zainteresowania znajdują się duże modele językowe, takie jak ChatGPT – z jednej strony coraz powszechniejsze, z drugiej owiane aurą infrastruktury „pożerającej zasoby”.

Na potrzeby tej analizy warto uporządkować kilka podstawowych pojęć. Zużycie energii to po prostu ilość energii elektrycznej potrzebna do wykonania danej operacji – w naszym przypadku przetworzenia jednego zapytania lub wyszkolenia modelu. Zużycie wody wiąże się głównie z chłodzeniem centrów danych oraz pośrednio z wytwarzaniem energii elektrycznej (np. w elektrowniach wymagających wody do chłodzenia). Ślad węglowy to z kolei suma emisji gazów cieplarnianych związanych z całym cyklem życia technologii: od produkcji sprzętu, przez zużycie energii w trakcie działania, po utylizację.

Kluczowe jest też odróżnienie dwóch faz działania sztucznej inteligencji. Trening modelu to proces uczenia – długotrwały, wymagający ogromnej mocy obliczeniowej i tym samym zużywający znaczne ilości energii (często w skali megawatogodzin lub gigawatogodzin). Inferencja, czyli codzienne odpowiadanie na pytania użytkowników, jest nieporównanie mniej energochłonna w przeliczeniu na jedno zapytanie, ale odbywa się miliony czy miliardy razy dziennie.

W dalszej części przyjrzymy się temu, co na temat energii i wody mówi Sam Altman, dyrektor generalny OpenAI, jak wyglądają pełne łańcuchy zużycia energii i wody w przypadku jednego zapytania i jak AI wypada na tle innych sektorów cyfrowych: tradycyjnych centrów danych, kryptowalut oraz streamingu wideo. Perspektywę liczb uzupełnimy o praktyczne rekomendacje – zarówno dla zwykłych użytkowników, jak i firm korzystających z rozwiązań AI.

Co tak naprawdę powiedział Sam Altman o zużyciu energii i wody przez ChatGPT

W niedawnym wywiadzie Sam Altman odniósł się wprost do krążących w sieci twierdzeń, że „jedno zapytanie do ChatGPT wymaga dziesiątek litrów wody”. Zdecydowanie odrzucił tę tezę, nazywając ją przesadzoną i opartą na nierealistycznych założeniach. Jednocześnie przyznał, że kwestia energii i wody w sektorze AI jest poważna i wymaga uczciwej debaty.

Altman ujawnił, że OpenAI zrezygnowało z technik chłodzenia wyparnego w swoich centrach danych – a więc z takiej metody, w której woda odparowuje bezpośrednio, aby odebrać ciepło z serwerów. Oznacza to istotne ograniczenie bezpośredniego zużycia wody w fazie działania data center, choć woda nadal jest zużywana pośrednio w procesie produkcji energii elektrycznej z sieci.

W kontekście energii Altman podał przybliżoną wartość rzędu 0,34 Wh na jedno zapytanie do ChatGPT. W praktyce oznacza to ilość energii porównywalną z kilkoma minutami świecenia energooszczędnej żarówki LED o mocy 8–10 W. Można to przedstawić jeszcze prościej: jedno zapytanie do dużego modelu językowego nie jest energetycznie porównywalne z praniem w pralce czy przejazdem samochodem, ale raczej z kilkoma minutami korzystania z laptopa lub smartfona.

Warto jednak zachować krytyczną ostrożność. Podawane wartości pochodzą z deklaracji CEO firmy, a nie z niezależnego audytu środowiskowego o pełnym zakresie, obejmującego cały cykl życia sprzętu i infrastrukturę sieciową. W międzynarodowych mediach technologicznych, takich jak reuters.com, wypowiedzi Altmana są szeroko cytowane jako głos branży, ale nie zastępują one twardych raportów o rzeczywistym śladzie środowiskowym.

Ciekawym elementem wywiadu jest również retoryczna analogia Altmana: jego zdaniem porównywanie „kosztu wyszkolenia” modelu AI z kosztem wyszkolenia człowieka jest nieintuicyjne, ponieważ człowiek wymaga dziesięcioleci życia, ogromnych ilości jedzenia, a sama ewolucja naszego gatunku pochłonęła w skali Ziemi niewyobrażalne ilości energii. To intrygująca metafora, ale nie powinna przesłaniać faktu, że współczesna debata klimatyczna opiera się na precyzyjnych danych liczbowych, a nie na filozoficznych porównaniach.

Wnioski z tych wypowiedzi są dwojakie. Z jednej strony jednostkowy koszt energetyczny pojedynczego zapytania wydaje się relatywnie niewielki, a wątek „dziesiątek litrów wody” ma słabe oparcie w realnych parametrach inżynieryjnych współczesnych centrów danych. Z drugiej strony nadal brakuje pełnych, niezależnych raportów typu lifecycle, które uwzględniałyby produkcję sprzętu, lokalne uwarunkowania wodne oraz miks energetyczny w konkretnych lokalizacjach serwerowni.

Ile prądu naprawdę zużywa jedno zapytanie do modelu AI – od serwera po Twój ekran

Gdy mówimy o „0,34 Wh na zapytanie”, najczęściej mamy na myśli zużycie energii w samym centrum danych, przypadające na obliczenia wykonywane przez model. To jednak tylko część całego łańcucha. W rzeczywistości pojedyncze zapytanie do ChatGPT czy innego modelu AI składa się z kilku warstw zużycia energii.

Po pierwsze, jest to praca modelu w data center. W jej skład wchodzą obliczenia na wyspecjalizowanych jednostkach (GPU, TPU lub dedykowane akceleratory), pamięć operacyjna, dyski oraz lokalna sieć serwerowni. To właśnie w tej warstwie generowana jest większość „0,34 Wh” deklarowanych przez Altmana. Wysoka gęstość obliczeń oznacza jednocześnie dużą gęstość mocy na metr kwadratowy, co z kolei wymusza wydajne chłodzenie.

Po drugie, mamy infrastrukturę towarzyszącą: systemy chłodzenia, zasilacze awaryjne, transformatory, sieć szkieletową między centrami danych oraz routery pośrednie. Energia zużywana w tych elementach często ujmowana jest w parametrach typu PUE (Power Usage Effectiveness) – im bliżej 1,0, tym mniejsza „nadwyżka” energii poza samymi serwerami. W praktyce do każdego 1 Wh mocy obliczeniowej trzeba doliczyć część energii pochłanianej przez chłodzenie i infrastrukturę.

Po trzecie, końcówka łańcucha to Twoje urządzenie i sieć dostępu: komputer lub smartfon, modem, router Wi‑Fi, ewentualnie sieć komórkowa. Tutaj również zużywana jest energia, choć zwykle jest ona niewielka w przeliczeniu na jedno konkretne zapytanie – to raczej kwestia ogólnego czasu spędzanego online.

W efekcie liczba w rodzaju 0,34 Wh można traktować jako przybliżenie „rdzenia” energetycznego zapytania. Pełny ślad energetyczny będzie nieco wyższy, ale nadal mieści się w skali ułamków watogodziny. Dla porównania, pojedyncze wyszukanie w Google szacuje się na ułamki Wh, obejrzenie kilkunastosekundowego klipu wideo – na podobnym poziomie, a kilka minut scrollowania mediów społecznościowych na smartfonie będzie w praktyce porównywalne lub wyższe, jeśli uwzględnimy transfer danych, jasność ekranu i działanie sieci komórkowej.

W skali jednostkowej różnice między „zwykłym internetem” a rozmową z AI nie są więc ogromne. Problem zaczyna być widoczny, gdy pomnożymy te wartości przez miliardy zapytań dziennie i zestawimy z rosnącą liczbą centrów danych budowanych wyłącznie pod potrzeby modeli AI.

Od tego jeszcze wyraźniej trzeba oddzielić koszt energetyczny trenowania dużego modelu. Trening trwa tygodnie lub miesiące, angażuje tysiące układów GPU i pochłania energię w skali MWh–GWh. Jest to jednorazowy (choć coraz częściej powtarzany) zryw energetyczny, który następnie „amortyzuje się” w trakcie miesięcy czy lat użytkowania modelu przez setki milionów zapytań.

Dynamiczny rozwój bardziej efektywnego sprzętu i architektur modeli jest tu kluczowy. Inwestycje w infrastrukturę AI liczone w dziesiątkach miliardów dolarów – jak opisywane w analizie „Nvidia inwestuje 30 mld dol. w OpenAI: korekta planu 100 mld dol. i nowy etap dojrzewania rynku AI” – mają nie tylko zwiększać moc obliczeniową, ale też poprawiać efektywność energetyczną każdego przeliczonego tokena. Od tego, jak zostaną zaprojektowane nowe generacje układów i centrów danych, zależy trajektoria śladu węglowego całej branży.

Woda, chłodzenie i mity o „dziesiątkach litrów” na jedno pytanie do ChatGPT

Aspekt wodny działa na wyobraźnię szczególnie silnie, bo wizja „dziesiątek litrów wody” zużywanych przy każdym pytaniu do czatu brzmi jak scenariusz rodem z dystopijnego filmu. Żeby ocenić, na ile jest on realistyczny, warto zrozumieć, gdzie w ogóle pojawia się woda w cyklu życia usług AI.

Po pierwsze, woda jest wykorzystywana w systemach chłodzenia centrów danych. Część operatorów korzysta z chłodzenia wyparnego lub hybrydowego – w takich rozwiązaniach woda odparowuje, odbierając ciepło z instalacji. Jest to z reguły bardziej efektywne energetycznie niż klasyczne klimatyzatory sprężarkowe, ale generuje realne zużycie wody, liczone w litrach na kilowatogodzinę odprowadzonego ciepła.

Po drugie, woda pojawia się pośrednio w miksie energetycznym. W elektrowniach konwencjonalnych (węglowych, gazowych, jądrowych) często potrzebne jest chłodzenie turbin i skraplaczy, co wiąże się z przepływem dużych ilości wody przez układ. Część tej wody wraca do środowiska w formie podgrzanej, część jest tracona przez parowanie. W energetyce wodnej sama infrastruktura opiera się na kształtowaniu przepływów wód powierzchniowych.

Jeśli spróbujemy zbudować uproszczony model, możemy mówić o orientacyjnych wartościach rzędu kilku–kilkunastu litrów wody na 1 kWh energii elektrycznej, w zależności od technologii i lokalnych warunków. Jeśli pojedyncze zapytanie zużywa ułamek Wh energii (np. 0,5 Wh po uwzględnieniu całego łańcucha), to po przeskalowaniu daje to średnio część szklanki wody – rząd wielkości mililitrów, a nie dziesiątek litrów.

Skąd więc pojawiają się nagłówki o „dziesiątkach litrów”? Zwykle są efektem połączenia kilku skrajnych założeń: wykorzystania najbardziej wodnochłonnych technologii chłodzenia, przypisania całego zużycia wody do pojedynczej „operacji” obliczeniowej oraz pominięcia faktu, że woda w obiegu chłodzenia jest w dużej części recyrkulowana. Jeśli dodatkowo założymy bardzo krótki czas „życia” modelu i małą liczbę zapytań, łatwo dojść do wysokich, ale mało reprezentatywnych liczb.

Deklaracja Altmana o odejściu OpenAI od chłodzenia wyparnego oznacza zmianę profilu wodnego: mniejsze zużycie wody bezpośrednio w centrum danych, większa zależność od pośredniego zużycia w elektrowniach. To krok w dobrą stronę tam, gdzie zasoby wodne są deficytowe, choć nie rozwiązuje problemu w całości.

Aby lepiej zrozumieć skalę, warto porównać zużycie wody przez infrastrukturę AI z innymi sektorami. Chłodzenie centrów danych obsługujących bankowość, giełdy kryptowalut, serwisy streamingowe czy usługi chmurowe ma bardzo podobną naturę – główna różnica dotyczy intensywności obliczeń na jednostkę czasu. Poza światem cyfrowym zużycie wody przez rolnictwo, przemysł chemiczny czy produkcję żywności jest rzędy wielkości większe niż to, co pochłania globalna infrastruktura IT.

Nie oznacza to jednak, że temat można zignorować. Nawet niewielkie globalnie liczby mogą mieć istotny lokalny wpływ, jeśli centrum danych powstaje w regionie dotkniętym deficytem wody lub wrażliwym ekosystemem. Dlatego ważne są lokalne regulacje, oceny oddziaływania na środowisko oraz transparentne raportowanie parametrów zużycia wody.

Dobrą praktyką komunikacyjną jest przedstawianie tych wartości w formie prostych wizualizacji. Przykładowa infografika mogłaby pokazywać „szklankę vs butelkę vs wannę” wody dla różnych aktywności cyfrowych: chat z AI, godzina streamingu wideo w HD, godzina intensywnej gry online. Taki obraz ułatwia użytkownikom zrozumienie, że rozmowa z modelem językowym znajduje się bliżej końca skali „szklanki” niż „wanny”, choć wciąż generuje realny ślad wodny, szczególnie w skali globalnej.

Jak AI wypada na tle kryptowalut, streamingu i klasycznych data center

Żeby właściwie ocenić ślad środowiskowy sztucznej inteligencji, trzeba osadzić go w szerszym krajobrazie cyfrowym. Najprościej robić to, porównując kilka sektorów pod kilkoma kątami: zużycie energii na jednostkę aktywności (jedno zapytanie, transakcja, godzina oglądania), łączny roczny pobór mocy danego segmentu oraz intensywność emisji CO₂ zależną od miksu energetycznego.

Modele AI udostępniane publicznie – takie jak ChatGPT i konkurencyjne rozwiązania – są dziś projektowane tak, aby maksymalnie zwiększać efektywność obliczeniową na wat energii. Wymusza to zarówno presja kosztowa, jak i ograniczona dostępność mocy obliczeniowej. Z drugiej strony sieci kryptowalutowe oparte na mechanizmie proof-of-work, takie jak klasyczny Bitcoin, zostały zaprojektowane z założenia wysokiej energochłonności na transakcję. Uczestnicy sieci konkurują ze sobą, zużywając energię, aby rozwiązać zadania kryptograficzne, co ma zapewnić bezpieczeństwo łańcucha bloków, ale generuje bardzo wysoki ślad węglowy przeliczony na jedną operację.

Platformy streamingowe wideo (szczególnie w jakości HD i 4K) są dziś jednym z największych konsumentów przepustowości internetu. Godzina streamingu w wysokiej rozdzielczości może zużyć kilkaset razy więcej danych niż krótka sesja z czatem AI, co przekłada się na znaczące zużycie energii w sieciach i centrach danych. Tradycyjne usługi chmurowe oraz korporacyjne centra danych (poczta elektroniczna, systemy ERP, bankowość online) działają z kolei w trybie stałym – przetwarzają bardzo dużo operacji o stosunkowo małej jednostkowej złożoności, ale robią to nieprzerwanie, 24 godziny na dobę.

Jeśli spojrzeć na roczne zużycie energii, to segment kryptowalut proof-of-work wciąż wyróżnia się negatywnie na tle innych zastosowań IT – przede wszystkim ze względu na brak wbudowanej presji na efektywność energetyczną na transakcję. Modele AI, choć kosztowne w treningu, są intensywnie optymalizowane pod względem liczby operacji na jednostkę energii, a więc ich ślad na pojedyncze zapytanie systematycznie maleje.

Istotne są też subiektywne korzyści dla użytkownika. Streaming to najczęściej rozrywka, kryptowaluty – w dużej mierze spekulacja finansowa, natomiast AI ma potencjał generowania wymiernej produktywności: automatyzacji powtarzalnych zadań, wsparcia w pracy twórczej, optymalizacji procesów przemysłowych. Pytanie o to, jak społeczeństwo powinno priorytetyzować różne zastosowania energii, staje się więc nie tylko techniczne, ale i etyczne.

Na ślad środowiskowy rozwiązań AI ogromny wpływ mają także decyzje architektoniczne: wybór między otwartymi a zamkniętymi modelami, hosting w chmurze publicznej lub prywatnej, lokalne wdrożenia on-premise, sposób buforowania i ponownego wykorzystania wyników. Dobrą mapą takich decyzji jest analiza „Open vs Closed LLMs in 2026: How to Choose the Right AI Stack for Your Next Project”, która pokazuje, że wybór stosu technologicznego wpływa nie tylko na bezpieczeństwo i koszty, ale też na profil energetyczny całego rozwiązania.

Najczęstsze mity o „śladzie węglowym sztucznej inteligencji” i co mówią liczby

Debata o wpływie AI na klimat obrosła już zestawem powtarzanych mitów. Ich popularność wynika często z mieszania pojęć – treningu z inferencją, AI z kryptowalutami, jednostkowego zużycia energii z globalną skalą sektora.

  • Mit: „Każde pytanie do ChatGPT to ekologiczna katastrofa”. Źródłem tego przekonania są zwykle sensacyjne artykuły, które przeskalowują skrajne parametry techniczne. W rzeczywistości jednostkowe zużycie energii na jedno zapytanie jest rzędu ułamków Wh i porównywalne z krótkim wyszukiwaniem w sieci czy obejrzeniem kilkusekundowego wideo. Problemem nie jest jedno pytanie, lecz potencjalna eksplozja liczby zapytań w skali globalnej oraz miks energetyczny krajów, w których stoją centra danych.
  • Mit: „AI zużywa więcej prądu niż cały przemysł lotniczy”. Tego typu porównania zwykle mylą sumaryczne, hipotetyczne zapotrzebowanie na moc obliczeniową w przyszłości z aktualnym zużyciem energii. Według szacunków niezależnych organizacji, takich jak IEA czy think-tanki energetyczne, sektor IT jako całość (łącznie z centrami danych, sieciami i urządzeniami końcowymi) wciąż odpowiada za znacznie mniejszą część globalnego zużycia energii i emisji CO₂ niż transport, budownictwo czy rolnictwo. AI jest rosnącą częścią tego tortu, ale nie dominuje go.
  • Mit: „Wyłączenie AI uratuje klimat”. Wizja „wielkiego wyłącznika” pomija dwa fakty. Po pierwsze, sektor energetyczny i tak musi przejść na źródła niskoemisyjne, niezależnie od rozwoju AI – to tam leży główna dźwignia dekarbonizacji. Po drugie, dobrze zaprojektowane systemy AI mogą realnie obniżać emisje w innych sektorach: optymalizować trasy logistyczne, zmniejszać straty w sieciach energetycznych, wspierać projektowanie bardziej oszczędnych budynków.
  • Mit: „AI to tylko marketingowy greenwashing, który ukrywa prawdziwe koszty środowiskowe”. Nieprzejrzystość raportów części firm technologicznych rzeczywiście rodzi podejrzenia o greenwashing. Faktem jest jednak, że w branży płyną obecnie rekordowe inwestycje w infrastrukturę i źródła energii odnawialnej. Jeśli środki te – jak w opisywanym przypadku strategicznych inwestycji w infrastrukturę AI – zostaną ukierunkowane na zwiększanie efektywności energetycznej i udziału OZE, intensywność energetyczna modeli może spadać mimo rosnącej skali zastosowań.

Realny problem polega dziś na tym, że ślad węglowy AI jest bardzo nierównomierny geograficznie. Ta sama usługa hostowana w kraju z dominacją odnawialnych źródeł energii lub energetyki jądrowej będzie miała zupełnie inną intensywność emisji CO₂ niż identyczne centrum danych zasilane głównie z węgla. Dlatego kluczowe są: przejrzystość miksu energetycznego, publikowanie metryk efektywności (np. ilość energii na 1 000 zapytań), regularne raporty ESG oraz konkretne cele dekarbonizacji.

Bez tych danych użytkownicy pozostają skazani na memy i skrajne nagłówki, zamiast podejmować decyzje oparte na faktach.

Co może zrobić zwykły użytkownik i firmy korzystające z ChatGPT, żeby realnie ograniczyć wpływ na środowisko

Choć główne decyzje dotyczące infrastruktury podejmują globalne korporacje i regulatorzy, użytkownicy indywidualni i firmy również mają do dyspozycji realne – choć pośrednie – narzędzia wpływu.

Użytkownik indywidualny

Z poziomu pojedynczej osoby najważniejsze jest świadome korzystanie z AI. Nie chodzi o to, by bać się każdego zapytania, ale by unikać bezrefleksyjnego generowania setek żądań tam, gdzie można je zracjonalizować. W praktyce oznacza to:

  • łączenie kilku powiązanych pytań w jedno, bardziej przemyślane, zamiast wysyłania dziesiątek nieprecyzyjnych promptów,
  • korzystanie z lokalnych lub „edge’owych” trybów AI tam, gdzie to ma sens (np. proste modele na smartfonie do zadań offline),
  • ograniczanie ogólnego „szumu cyfrowego” – to, ile godzin dziennie spędzamy na streamingu wideo 4K, grach online czy oglądaniu NFT, ma zwykle większy ślad środowiskowy niż kilka rozmów z czatem.

Warto pamiętać, że pojedyncze, dobrze wykorzystane zapytanie do AI może zastąpić np. kilkadziesiąt minut bezproduktywnego przeszukiwania stron internetowych czy powtarzania tych samych czynności – a to również przekłada się na mniejsze zużycie energii w skali własnego dnia.

Organizacje i firmy

Dla firm korzystających z ChatGPT i podobnych narzędzi największą dźwignią jest projektowanie procesów biznesowych tak, aby AI rzeczywiście przynosiła oszczędności energii, materiałów i czasu pracy. Praktyczne działania obejmują m.in.:

  • audyt wykorzystania AI w procesach – identyfikację miejsc, w których modele pomagają w optymalizacji tras logistycznych, predykcyjnym utrzymaniu ruchu czy redukcji odpadów produkcyjnych,
  • projektowanie architektury systemów tak, aby nie przetwarzać i nie przechowywać zbędnych danych,
  • dobór regionów chmurowych i dostawców, którzy deklarują niski ślad węglowy dzięki czystemu miksowi energetycznemu,
  • negocjowanie z dostawcami SLA obejmujących nie tylko dostępność i czas odpowiedzi, ale też podstawowe wskaźniki środowiskowe.

Wybór modelu korzystania z usług – liczby użytkowników, intensywności zapytań, stopnia automatyzacji – ma wymiar zarówno finansowy, jak i energetyczny. Dobrym punktem odniesienia są tu analizy rozwiązań subskrypcyjnych, takich jak „ChatGPT Pro Lite za 100 dolarów miesięcznie: dla kogo ten plan może mieć sens biznesowy?”, które pokazują, jak racjonalnie dobrać plan do realnych potrzeb organizacji. Mniej niepotrzebnych zapytań to nie tylko niższy rachunek, ale i pośrednio mniejsze zużycie zasobów.

Kluczowym „działaniem proekologicznym” pozostaje jednak coś, co wykracza poza kompetencje pojedynczej firmy: globalne przejście infrastruktury energetycznej na źródła niskoemisyjne. Im bardziej zielona jest sieć, tym mniejszy ślad węglowy każdej usługi cyfrowej – od AI, przez streaming, po bankowość online. Świadome wybory klientów i presja inwestorów ESG mogą ten proces istotnie przyspieszać.

AI, energia i woda w długim horyzoncie – jak rozsądnie patrzeć na przyszłość

Sztuczna inteligencja – w tym modele takie jak ChatGPT – bez wątpienia zużywa energię i pośrednio wodę. Rzeczywiste pytanie, przed którym stoimy, nie brzmi jednak „czy AI zużywa zasoby”, ale jaką wartość społeczną tworzy na jednostkę zużycia energii i wody oraz jak szybko sektor jest w stanie poprawiać swoją efektywność.

Obawy przed „ekologicznym koszmarem AI” nie są całkowicie bezpodstawne, szczególnie jeśli weźmiemy pod uwagę możliwą eksplozję zapotrzebowania na moc obliczeniową w nadchodzących latach. Jednocześnie obraz, w którym każda odpowiedź czatu to katastrofa dla planety, jest zbyt uproszczony. Jednostkowo zapytanie do dużego modelu językowego zużywa stosunkowo niewiele energii – wyzwanie leży w skali, miksie energetycznym i tempie rozbudowy infrastruktury.

W długim horyzoncie ta sama technologia, która powoduje wzrost zużycia energii w centrach danych, może stać się jednym z narzędzi redukcji emisji w innych sektorach. Modele AI są już wykorzystywane do optymalizacji pracy sieci energetycznych, lepszych prognoz popytu, do projektowania nowych materiałów o mniejszym śladzie środowiskowym czy do wspierania rolnictwa precyzyjnego, zmniejszającego zużycie nawozów i wody.

Rozsądna rama myślenia o AI powinna opierać się na kilku zasadach. Po pierwsze, żądać przejrzystości od dostawców: publikacji danych o zużyciu energii i wody, miksie energetycznym, celach dekarbonizacji. Po drugie, wybierać rozwiązania efektywne – zarówno pod względem jakości odpowiedzi, jak i zużycia zasobów. Po trzecie, wspierać regulacje i inwestycje, które przyspieszają rozwój odnawialnych źródeł energii i standardów raportowania ESG. I wreszcie, unikać paniki opartej na niezweryfikowanych memach, które redukują złożony problem do sensacyjnych nagłówków.

Jako użytkownicy mamy realny, choć pośredni wpływ na kształt tego ekosystemu: poprzez wybór narzędzi, dostawców i styl korzystania z technologii oraz poprzez presję informacyjną na firmy i regulatorów. Od tego, czy wątek energetyczno‑wodny będzie traktowany jako element strategii biznesowej, a nie tylko PR-owa deklaracja, zależy, czy rozwój sztucznej inteligencji wpisze się w scenariusz zrównoważonej transformacji, czy też stanie się kolejnym źródłem napięć w debacie o klimacie.


Leave a Reply

Your email address will not be published. Required fields are marked *