Dlaczego woda w centrach danych nagle stała się tematem nagłówków
W ciągu ostatnich miesięcy opinia publiczna zaczęła zadawać z pozoru proste pytanie: czy każde zapytanie do ChatGPT naprawdę „wypija” znaczące ilości wody i jaki jest faktyczny ślad wodny sztucznej inteligencji? W mediach pojawiły się nagłówki o „galonach wody na jedno zapytanie”, a w przestrzeni internetowej krążyły liczby w rodzaju „17 galonów na prompt”. Dyskusję dodatkowo zaogniła wypowiedź prezesa OpenAI Sama Altmana. Podczas wystąpienia w Indiach określił on obawy o zużycie wody przez AI jako „totalnie fałszywe” i „całkowicie oderwane od rzeczywistości”.
Kontrast między alarmistycznymi doniesieniami o „butelkach wody na rozmowę z chatbotem” a uspokajającym tonem liderów branży rodzi zrozumiałe pytania. Czy użytkownik, zadając pytanie ChatGPT, rzeczywiście przyczynia się do marnotrawstwa deficytowego zasobu? A może mamy do czynienia z przerysowaną narracją i uproszczeniami na potrzeby nagłówków? Czy ślad wodny AI faktycznie różni się od śladu wodnego innych usług cyfrowych, jak streaming czy wyszukiwarki internetowe?
Celem tego artykułu jest uporządkowanie faktów. Kluczowe jest zrozumienie, jak działają centra danych i dlaczego w ogóle zużywają wodę. Ważne jest także, czym różni się ślad wodny AI od śladu energetycznego oraz jak naukowcy próbują szacować wpływ sztucznej inteligencji na środowisko. Równie istotne jest oddzielenie racjonalnej troski o zasoby naturalne od greenwashingu i medialnej paniki. Woda i energia są w tym kontekście nierozerwalnie powiązane – nie da się rzetelnie mówić o jednej bez drugiej.
Analiza opiera się na publicznych wypowiedziach przedstawicieli branży (w tym Sama Altmana), badaniach naukowych dotyczących centrów danych oraz doświadczeniach inżynierów pracujących nad infrastrukturą chmurową i systemami AI. Tekst jest skierowany do szerokiego grona czytelników. Nie trzeba być specjalistą od serwerów, by zrozumieć stojące za nim mechanizmy, liczby i realny wpływ sztucznej inteligencji na środowisko.
Jak działają centra danych i dlaczego w ogóle potrzebują wody
Centrum danych to w największym skrócie ogromna hala wypełniona serwerami – wyspecjalizowanymi komputerami, które przechowują dane i wykonują obliczenia dla aplikacji, stron internetowych, wyszukiwarek czy systemów AI. Gdy użytkownik wysyła zapytanie do ChatGPT, jego prośba nie trafia do „magicznej chmury”, lecz do konkretnego centrum danych. Tam tysiące układów scalonych wykonują skomplikowane operacje matematyczne.
Każdy taki serwer zużywa energię elektryczną. Z fizycznego punktu widzenia niemal cała ta energia zamienia się w ciepło, które trzeba odprowadzić, aby sprzęt pracował stabilnie. Jeśli temperatura w szafach serwerowych wzrośnie zbyt mocno, rośnie ryzyko awarii. Skraca się żywotność podzespołów i spada niezawodność usług. Dlatego systemy chłodzenia są równie krytyczną częścią centrum danych jak same serwery. Bez nich nie byłoby możliwe świadczenie usług AI w trybie 24/7.
W praktyce stosuje się kilka głównych technologii chłodzenia:
- Tradycyjne chłodzenie powietrzem – serwery są owiewane zimnym powietrzem dostarczanym przez klimatyzację przemysłową. Jest to rozwiązanie proste, ale energochłonne, ponieważ trzeba schłodzić duże ilości powietrza.
- Systemy wodno–powietrzne – łączą obieg powietrza z obiegiem wody. Woda odbiera ciepło z klimatyzatorów lub wymienników, a następnie sama jest chłodzona, np. w wieżach chłodniczych.
- Chłodzenie ewaporacyjne – wykorzystuje zjawisko parowania wody. Woda odparowuje w specjalnych urządzeniach, odbierając duże ilości ciepła. To metoda bardzo efektywna energetycznie, ale wymaga ciągłego „zużywania” wody, która opuszcza system w postaci pary.
- Chłodzenie cieczą w zamkniętych obiegach – w najnowszych centrach danych stosuje się chłodzenie bezpośrednio na poziomie serwerów lub nawet pojedynczych chipów (np. ciecz przepływająca w blokach chłodzących). Woda lub inna ciecz krąży w obiegu zamkniętym, dzięki czemu nie jest tracona. Zapotrzebowanie na świeżą wodę z zewnątrz może być wtedy istotnie niższe.
W wielu starszych obiektach – i części nowych – kluczową rolę odgrywa tzw. „woda techniczna”. Nie jest to woda przeznaczona do picia, ale wciąż pochodzi z lokalnych zasobów: rzek, wód gruntowych, systemów wodociągowych lub oczyszczalni ścieków. W regionach o ograniczonych zasobach wodnych każde dodatkowe pobranie może wchodzić w konflikt z rolnictwem, przemysłem lub potrzebami mieszkańców i zwiększać lokalny stres wodny.
Aby opisać efektywność wykorzystania wody, branża posługuje się wskaźnikiem Water Usage Effectiveness (WUE). To wodny odpowiednik znanego w świecie data center wskaźnika PUE (Power Usage Effectiveness). W uproszczeniu WUE pokazuje, ile litrów wody potrzeba, aby dostarczyć daną ilość mocy obliczeniowej. Niski WUE oznacza, że centrum danych potrafi obsłużyć tę samą liczbę zapytań – w tym zapytań do modeli AI – przy niższym zużyciu wody.
To właśnie struktura systemu chłodzenia w największym stopniu wpływa na ślad wodny centrum danych. Stąd w wypowiedziach Sama Altmana pojawia się kontrast między dawnymi instalacjami intensywnie wykorzystującymi chłodzenie ewaporacyjne a nowszymi obiektami. Te drugie stawiają na obiegi zamknięte i optymalizację zużycia.
Co dokładnie powiedział Sam Altman i skąd wzięły się mity o „17 galonach na zapytanie”
Podczas wystąpienia w Indiach Sam Altman odniósł się wprost do popularnych w sieci stwierdzeń, że „każde zapytanie do ChatGPT zużywa 17 galonów wody”. Określił te liczby jako „całkowicie fałszywy mit” i „totalnie oderwaną od rzeczywistości narrację”. Wskazał też, że zgodnie z wewnętrznymi analizami rzeczywiste wartości są o rzędy wielkości niższe. Altman podkreślił, że problem wody był zdecydowanie poważniejszy w okresie, gdy w centrach danych szeroko wykorzystywano chłodzenie ewaporacyjne. Obecnie znaczna część infrastruktury przechodzi na inne technologie.
Skąd zatem wzięły się nagłówki o „17 galonach na zapytanie”? Nie były wynikiem oficjalnych raportów firm, lecz ekstrapolacji badań naukowców. Zespoły badawcze, m.in. związane z uniwersytetami w Stanach Zjednoczonych i Europie, próbowały oszacować ślad wodny dużych modeli językowych. Korzystały z ograniczonych publicznie danych o centrach danych, ich lokalizacji oraz technologiach chłodzenia. Następnie dzieliły szacowane roczne zużycie wody przez liczbę interakcji z modelami. W ten sposób dochodziły do przybliżonych wartości per „zapytanie” lub per „sesja rozmowy”.
Taki sposób liczenia ma nieuchronnie duży margines błędu. Po pierwsze, firmy rzadko publikują zużycie wody w rozbiciu na pojedyncze usługi, a tym bardziej na pojedyncze zapytania. Po drugie, to samo centrum danych obsługuje równolegle dziesiątki lub setki usług, z których tylko część to modele AI. Po trzecie, badacze muszą przyjmować założenia dotyczące obciążenia serwerów, struktury zapytań, pór roku czy rodzaju używanej wody.
W efekcie liczba „17 galonów na zapytanie” jest przede wszystkim medialnym skrótem i uproszczonym przeliczeniem na potrzeby wywołania efektu „wow”. Mit polega na sugestii, że każde pojedyncze zapytanie ma sztywną, niezmienną „cenę wodną”. Zakłada się przy tym brak wpływu miejsca, pory dnia, generacji technologii czy sposobu chłodzenia. Tymczasem rzeczywisty ślad wodny jest rozproszony w czasie i przestrzeni. Zależy też od tysięcy parametrów inżynieryjnych.
Warto podkreślić, że w tej samej rozmowie Altman przyznał, iż zużycie energii przez AI jest realnym powodem do niepokoju. Zwrócił uwagę, że problemem nie jest „energia na pojedyncze zapytanie”, lecz skumulowane zużycie energii przez cały ekosystem AI. Podkreślił też konieczność szybkiej transformacji miksu energetycznego w kierunku źródeł niskoemisyjnych – w tym energetyki jądrowej, wiatrowej i słonecznej. To rozróżnienie jest istotne. Altman nie odrzuca samych obaw środowiskowych, lecz polemizuje z konkretnymi uproszczeniami dotyczącymi wody.
Jak faktycznie mierzy się ślad wodny i energetyczny sztucznej inteligencji
Aby zrozumieć ślad środowiskowy AI, trzeba rozdzielić dwa etapy życia modelu:
- Trening dużego modelu – proces jednorazowy (lub powtarzany sporadycznie), bardzo intensywny obliczeniowo. Wymaga tysięcy specjalistycznych procesorów (GPU/TPU), pracujących tygodniami lub miesiącami. To przekłada się na ogromne zużycie energii i ciepła, a tym samym na zapotrzebowanie na chłodzenie.
- Inference, czyli korzystanie z modelu – odpowiadanie na zapytania użytkowników. Każde pojedyncze zapytanie jest znacznie mniej zasobożerne niż trening, ale liczba zapytań liczona jest w milionach i miliardach dziennie. W skali roku generuje to znaczący ślad energetyczny i wodny.
Badacze próbują szacować ten ślad, łącząc dane z kilku obszarów:
- Lokalizacja centrów danych – klimat i dostępność wody wpływają na to, jak wiele chłodzenia wodą jest potrzebne. Centrum danych w chłodnej Skandynawii może przez dużą część roku obywać się bez intensywnego chłodzenia wodnego. Obiekt na pustynnym południu USA ma zupełnie inny profil.
- Technologia chłodzenia i wskaźnik WUE – im więcej systemów ewaporacyjnych i otwartych obiegów, tym wyższe bezpośrednie zużycie wody. Zamknięte obiegi i zaawansowane wymienniki ciepła zmniejszają z kolei zapotrzebowanie na „świeżą” wodę.
- PUE (Power Usage Effectiveness) – pokazuje, jaki procent zużywanej energii trafia bezpośrednio do serwerów, a jaki do infrastruktury pomocniczej (klimatyzacja, zasilanie awaryjne itd.). Wyższa efektywność energetyczna pośrednio ogranicza także ślad wodny.
- Miks energetyczny – im większy udział źródeł wodnochłonnych (np. elektrownie węglowe i gazowe z chłodzeniem wodnym), tym większa tzw. pośrednia konsumpcja wody związana z produkcją energii. Jeżeli centrum danych jest zasilane w dużej mierze energią z wiatru, słońca czy atomu, wodny ślad pośredni może być mniejszy.
- Natężenie ruchu i obciążenie serwerów – od tego zależy, ile mocy obliczeniowej faktycznie jest wykorzystywane i jak intensywnie pracują systemy chłodzenia.
Wskaźniki WUE i PUE stanowią ważny punkt odniesienia dla inżynierów, ale same w sobie niewiele mówią zwykłemu użytkownikowi. Nie da się wprost przełożyć „0,2 l wody na kWh” na „tyle a tyle wody na jedno zapytanie”. Po drodze trzeba uwzględnić udział danego modelu w ogólnym obciążeniu centrum danych oraz fakt, że dane centrum obsługuje wiele usług jednocześnie.
Wynikające z badań wartości w rodzaju „15–20 galonów na zapytanie” to zatem uproszczone przeliczenia. Często konstruuje się je po to, by zilustrować skalę problemu w zrozumiałej formie. Inżynierowie centrów danych nie posługują się taką metryką w codziennej pracy. Patrzą raczej na sumaryczne zużycie wody rocznie, WUE, PUE i efektywność energetyczną sprzętu.
Aby rzeczywiście policzyć „wodny i węglowy ślad pojedynczego promptu”, należałoby podzielić całkowite roczne zużycie wody przez centra danych między wszystkie obsługiwane usługi: chmurę obliczeniową, bazy danych, aplikacje biznesowe, streaming czy tradycyjne wyszukiwarki. Następnie trzeba byłoby przypisać część tej puli konkretnemu modelowi AI, uwzględniając jego udział w obciążeniu. Dopiero potem można próbować dzielić tę wartość przez liczbę zapytań. Nic dziwnego, że wyniki takich operacji są obarczone dużą niepewnością.
Warto w tym miejscu nawiązać do szerszego kontekstu inwestycji w infrastrukturę AI. W analizie dotyczącej planów inwestycyjnych OpenAI na poziomie setek miliardów dolarów pokazano, jak radykalnie rośnie zapotrzebowanie na moc obliczeniową. Każda taka inwestycja to nie tylko większa liczba chipów i szaf serwerowych, lecz także większa presja na zasoby energetyczne i wodne. Skala wydatków infrastrukturalnych powinna więc iść w parze z równie ambitnymi planami poprawy efektywności oraz transparentności środowiskowej.
Dodatkowym problemem jest brak spójnych standardów raportowania. Część firm publikuje dane o zużyciu energii i wody, inne ograniczają się do wysokopoziomowych wskaźników lub deklaracji typu „neutralność klimatyczna”. Niespójność metodologii utrudnia porównania i sprzyja medialnym uproszczeniom – także tym, które przeradzają się w mity.
Od mitów do liczb: jakie są realne scenariusze wpływu AI na zasoby wodne
Jeśli odejdziemy od wyolbrzymionych pojedynczych liczb i spojrzymy na zjawisko systemowo, realny obraz wpływu AI na zasoby wodne okazuje się bardziej zróżnicowany. Istnieje kilka typowych scenariuszy, w których ślad wodny centrów danych – a więc pośrednio także usług AI – znacząco się różni.
Po pierwsze, mamy centra danych w regionach suchych, w których historycznie często stosowano chłodzenie ewaporacyjne. W takich lokalizacjach, zwłaszcza w gorącym klimacie, zużycie wody rzeczywiście może być bardzo wysokie. Każdy dodatkowy megawat mocy obliczeniowej przekłada się na więcej parującej wody. W sytuacji chronicznego deficytu zasobów może to prowadzić do lokalnych konfliktów społecznych i presji regulacyjnej.
Po drugie, istnieją obiekty w chłodniejszych strefach klimatycznych, w których przez większość roku można stosować tzw. „free cooling”. Polega on na wykorzystaniu naturalnie niskiej temperatury powietrza do chłodzenia, bez intensywnego angażowania wody. Tam bezpośrednie zużycie wody na potrzeby chłodzenia może być znacznie niższe. Nadal jednak pozostaje kwestia pośredniego śladu wodnego związanego z produkcją energii.
Po trzecie, rośnie liczba nowoczesnych centrów danych wykorzystujących zamknięte obiegi wody, chłodzenie cieczą na poziomie szaf lub serwerów oraz systemy odzysku ciepła, np. do ogrzewania budynków mieszkalnych czy basenów komunalnych. W takich instalacjach ten sam litr wody może krążyć w systemie bardzo długo, a realne „pobranie” z lokalnych zasobów jest ograniczone.
Wpływ na lokalne zasoby wodne zależy nie tylko od łącznego zużycia, lecz także od:
- pory roku – w okresach suszy nawet relatywnie niewielki dodatkowy pobór wody może być problematyczny;
- rodzaju pobieranej wody – inne konsekwencje ma wykorzystanie wody pitnej, inne wody technicznej czy oczyszczonych ścieków;
- alternatywnego wykorzystania zasobu – litr wody zużytej przez centrum danych nie trafi do rolnictwa, przemysłu ani gospodarstw domowych.
Nawet jeśli nagłówki o „galonach na prompt” są mylące, realne ryzyka istnieją – szczególnie w regionach dotkniętych suszą i wysokim stresem wodnym. Sztuczna inteligencja nie jest jednak „osobnym bytem środowiskowym”. To kolejna warstwa na rosnącej infrastrukturze chmurowej. Dyskutując o śladzie wodnym AI, tak naprawdę rozmawiamy o całym ekosystemie data center, jego regulacjach i lokalnych uwarunkowaniach hydrologicznych.
Z perspektywy polityk publicznych coraz częściej mówi się o potrzebie bardziej zniuansowanych wskaźników. Zwykłe „litry na kWh” nie wystarczą. Coraz większe znaczenie zyskują metryki uwzględniające stres wodny regionu, czyli relację między dostępnymi zasobami a popytem, oraz rodzaj wykorzystywanej wody. Kilkanaście milionów litrów rocznie zużywanych w rejonie o dużych zasobach może mieć mniejsze konsekwencje niż kilka milionów w regionie skrajnie suchym.
Branża technologiczna podnosi argumenty dotyczące spektakularnych postępów w optymalizacji: niższe WUE i PUE, migrację do chłodniejszych regionów, coraz bardziej efektywne układy scalone. Organizacje ekologiczne zwracają jednak uwagę na lokalne konflikty o wodę i brak pełnej transparentności danych środowiskowych. Podkreślają też fakt, że całkowita skala infrastruktury rośnie szybciej niż efektywność jednostkowa.
Co robią firmy technologiczne i rządy, a gdzie zaczyna się greenwashing
Globalni dostawcy usług chmurowych i AI deklarują coraz ambitniejsze cele środowiskowe. W materiałach inwestorskich i raportach ESG pojawiają się zapowiedzi budowy centrów danych w chłodniejszych regionach, kontraktów na odnawialne źródła energii, projektów odzysku ciepła czy przechodzenia z chłodzenia ewaporacyjnego na systemy oparte na zamkniętych obiegach. Niektóre firmy ogłaszają długoterminowe zobowiązania do bycia „water positive” (oddających do środowiska więcej wody, niż pobierają) czy „carbon negative”.
Część z tych działań ma realny wymiar inżynieryjny i kapitałowy: wymianę całych systemów chłodzenia, modernizację starszych obiektów, zakup energii z nowych farm wiatrowych czy fotowoltaicznych. Inna część ma jednak wyraźny charakter wizerunkowy, szczególnie tam, gdzie brakuje przejrzystych, porównywalnych danych liczbowych.
W tym kontekście ważne jest pojęcie greenwashingu – praktyki polegającej na przedstawianiu działań jako bardziej przyjaznych środowisku, niż są w rzeczywistości. W komunikacji dotyczącej AI i centrów danych na sygnały greenwashingu wskazują m.in.:
- brak spójnych metodyk raportowania zużycia wody i energii,
- eksponowanie procentowych redukcji (np. „40% mniej wody na kWh”) bez podawania wartości bezwzględnych,
- selektywne lokowanie centrów danych w miejscach z tanim prądem, ale wysokim stresem wodnym,
- podkreślanie inwestycji w OZE bez informacji o faktycznym miksie energetycznym w godzinach szczytowej pracy centrów danych.
Słowa Sama Altmana o energii – że prawdziwe wyzwanie dotyczy skumulowanego zużycia energii i konieczności przyspieszenia inwestycji w atom, wiatr i słońce – można odczytywać dwojako. Z jednej strony jest to odpowiedzialne wskazywanie kierunku. Bez taniej, niskoemisyjnej energii trudno mówić o zrównoważonej ekspansji AI. Z drugiej strony taka narracja może być postrzegana jako próba przeniesienia części odpowiedzialności za ślad środowiskowy na sektor energetyczny i regulatorów. Odwraca wówczas uwagę od konkretnych decyzji lokalizacyjnych i technologicznych podejmowanych przez firmy technologiczne.
Szczególnego znaczenia nabierają te deklaracje w kontekście strategicznych planów rozwoju AI. W analizie poświęconej autonomicznym agentom i nowej strategii OpenAI dla biznesu opisano scenariusz gwałtownego zwiększenia wykorzystania AI do automatyzacji procesów w przedsiębiorstwach. Jeżeli tego typu plany się zrealizują, wolumen obliczeń – i to nie tylko w obszarze chatbotów – wzrośnie wielokrotnie. Wówczas każdą deklarację „zieloności” należy interpretować w kontekście tej ekspansji. Liczy się nie tylko efektywność jednostkowa, ale także całkowita skala systemu.
Mini-poradnik: jak rozpoznawać greenwashing w komunikacji o AI
Przy ocenie komunikatów dużych firm technologicznych pomocne mogą być proste kryteria, pozwalające odróżnić rzetelne dane od marketingu.
- Czy firma podaje pełne dane liczbowe (zużycie wody i energii w wartościach bezwzględnych, np. w m3 i MWh), czy jedynie procentowe porównania i hasła typu „neutralność klimatyczna”?
- Czy informacje są odnoszone do lokalnego kontekstu wodnego – np. wskazany jest poziom stresu wodnego regionu, z którego pobierana jest woda?
- Czy raporty obejmują cały cykl życia infrastruktury (produkcja sprzętu, budowa centrów danych, eksploatacja, recykling), czy tylko wycinek związany z bieżącym zużyciem energii?
- Czy dane są weryfikowane przez niezależne podmioty (audytorów, organizacje branżowe), czy opierają się wyłącznie na wewnętrznych szacunkach?
- Czy firma publikuje regularne, porównywalne w czasie raporty, czy pojedyncze, jednorazowe komunikaty medialne?
- Czy deklaracje dotyczące nowych, „zielonych” centrów danych są uzupełnione o informacje, co dzieje się ze starszą, mniej efektywną infrastrukturą?
Jak użytkownicy i firmy mogą odpowiedzialnie korzystać z AI, nie dając się zwieść mitom
Z perspektywy pojedynczego użytkownika jedno zapytanie do ChatGPT nie jest ekologiczną katastrofą. Zużycie energii i wody przypadające na pojedynczy prompt jest – w porównaniu z innymi codziennymi aktywnościami cyfrowymi – stosunkowo niewielkie. Problemem jest skala: miliony użytkowników, setki miliardów zapytań rocznie, coraz więcej modeli i autonomicznych agentów działających w tle.
Odpowiedzialne podejście nie polega więc na całkowitym unikaniu AI, lecz na świadomym i efektywnym jej wykorzystaniu. Na poziomie organizacji oznacza to między innymi:
- projektowanie procesów pracy z AI tak, aby minimalizować liczbę zbędnych obliczeń – np. unikanie wielokrotnego generowania podobnych treści tam, gdzie wystarczy dobrze zaprojektowany przepływ i ponowne wykorzystanie wyników;
- wprowadzanie standardów korzystania z modeli (np. preferowanie mniejszych modeli tam, gdzie nie jest konieczna pełna moc największych systemów);
- wybór dostawców, którzy rzetelnie raportują wskaźniki środowiskowe i posiadają konkretne plany redukcji śladu węglowego i wodnego;
- włączenie śladu środowiskowego AI do polityk ESG oraz oceny łańcucha dostaw IT.
Na poziomie użytkownika indywidualnego rozsądne jest myślenie o AI jako o zasobie, którego warto używać tam, gdzie przynosi realną wartość. Może to być usprawnienie analizy danych, automatyzacja powtarzalnych zadań czy pomoc w nauce. Zamiast tego łatwo wpaść w pułapkę traktowania chatbotów jako narzędzia do bezrefleksyjnego generowania treści czy rozrywki, gdy są dostępne prostsze alternatywy.
W tym kontekście interesujące są wnioski z eksperymentów opisanych w tekście o tym, jak niewielkie zmiany w formułowaniu zapytań potrafią radykalnie poprawić jakość odpowiedzi ChatGPT i Gemini. Lepiej skonstruowany, precyzyjny prompt często pozwala osiągnąć cel w jednej interakcji zamiast w pięciu kolejnych doprecyzowań. To z kolei oznacza mniej niepotrzebnych obliczeń. W skali jednostkowej to ułamek, ale w skali globalnej – realne odciążenie infrastruktury. Jakość i efektywność korzystania z modeli idą tu w parze z odpowiedzialnością środowiskową.
Podobnie regulatorzy i decydenci publiczni mogą wpływać na kształt rynku, tworząc standardy raportowania śladu wodnego i energetycznego. Mogą też różnicować wymagania w zależności od lokalnego stresu wodnego czy promować lokalizowanie nowych centrów danych w miejscach, gdzie dostępność zasobów jest większa. Realna odpowiedzialność środowiskowa AI zaczyna się bowiem tam, gdzie lepsza technologia łączy się z lepszymi decyzjami – po stronie użytkowników, firm i organów regulacyjnych.
Spór o to, czy ChatGPT „pije wodę”, nie zostanie rozstrzygnięty jednym wykresem ani jedną wypowiedzią prezesa dużej spółki technologicznej. Ważniejsze od chwytliwych nagłówków jest przejrzyste raportowanie danych, rozwój efektywniejszych technologii chłodzenia i energii oraz świadome decyzje po stronie wszystkich uczestników ekosystemu. Tylko wówczas rosnąca potęga sztucznej inteligencji nie będzie oznaczać niekontrolowanego rachunku wystawianego środowisku.
Najczęściej zadawane pytania
Czy pojedyncze zapytanie do ChatGPT naprawdę zużywa „17 galonów wody”?
Nie. Liczba „17 galonów na zapytanie” pochodzi z bardzo uproszczonych szacunków badawczych i medialnych nagłówków, a nie z oficjalnych danych operatorów centrów danych. Rzeczywisty ślad wodny pojedynczego promptu jest o rzędy wielkości niższy. Zależy od wielu czynników technicznych: miejsca lokalizacji centrum danych, technologii chłodzenia, wskaźników WUE i PUE, miksu energetycznego oraz udziału danego modelu AI w całkowitym obciążeniu infrastruktury.
Czy korzystanie z AI jest bardziej „wodochłonne” niż inne usługi cyfrowe, np. streaming wideo?
To zależy od scenariusza użycia. Trening bardzo dużych modeli językowych jest ekstremalnie energo- i wodochłonny, ale odbywa się relatywnie rzadko. Codzienne korzystanie z ChatGPT czy innych modeli AI ma ślad wodny i energetyczny porównywalny z innymi usługami chmurowymi. Wszystko rozstrzyga się jednak w skali: miliardy zapytań, rosnąca liczba modeli i centrów danych. Dlatego w dyskusji o wpływie AI na zasoby wodne ważniejsze od pojedynczego zapytania są łączne wolumeny obliczeń i tempo rozbudowy infrastruktury.
Co realnie mogę zrobić, aby ograniczyć ślad wodny i energetyczny związany z moim korzystaniem z AI?
Na poziomie użytkownika najwięcej daje świadome, efektywne korzystanie z modeli: zadawanie precyzyjnych pytań, unikanie setek zbędnych generacji, wybieranie mniejszych modeli tam, gdzie to możliwe, oraz traktowanie AI jako narzędzia do realnego usprawniania pracy, a nie bezrefleksyjnej rozrywki. Firmy mogą dodatkowo uwzględniać ślad środowiskowy AI w politykach ESG, wybierać dostawców transparentnie raportujących WUE, PUE i zużycie wody oraz projektować procesy biznesowe tak, aby ograniczać liczbę niepotrzebnych obliczeń i treningów modeli.


One response to “Czy ChatGPT naprawdę „pije wodę”? Ślad wodny sztucznej inteligencji bez mitów i paniki”
Bardzo ciekawe ujęcie tematu – mam wrażenie, że dyskusja o „wodzie na prompt” jest mocno uproszczona i dobrze, że ktoś ją porządkuje. Zastanawia mnie jednak, jak w praktyce użytkownik ma ocenić realny ślad wodny swojego korzystania z AI, skoro dane o zużyciu wody przez konkretne centra danych są zwykle niejawne albo bardzo ogólne. Czy widzi Pan/Pani szansę na powstanie przejrzystych standardów raportowania (podobnych do śladu węglowego), które pozwoliłyby porównywać różne usługi AI pod kątem zużycia wody? I czy to w ogóle byłoby z punktu widzenia dostawców technicznie i biznesowo wykonalne?