Dlaczego rozmowa o zużyciu energii i wody przez ChatGPT zaczyna się od Indii
Indie w ciągu kilku lat stały się jednym z kluczowych punktów na globalnej mapie rozwoju sztucznej inteligencji. To nie tylko ogromny rynek użytkowników usług cyfrowych, ale także coraz ważniejsze zaplecze infrastrukturalne dla chmury obliczeniowej i centrów danych, które napędzają generatywną AI. Podczas jednego z niedawnych szczytów technologicznych w Indiach Sam Altman, dyrektor generalny OpenAI, został zapytany o rosnącą krytykę związaną z tym, ile energii i ile wody zużywają centra danych obsługujące modele pokroju ChatGPT.
W swoich wypowiedziach Altman przyznał, że współczesne modele generatywne są energochłonne, wymagają intensywnego chłodzenia oraz coraz większej mocy obliczeniowej. Jednocześnie starał się minimalizować znaczenie zużycia wody, podkreślając efektywność nowoczesnych centrów danych i relatywnie niewielki – w jego ujęciu – udział tej infrastruktury w globalnym zużyciu zasobów wodnych. Zaznaczył też, że – jego zdaniem – „energia zużyta na AI jest tego warta”, ponieważ przynosi zyski produktywności, innowacji i wzrostu gospodarczego.
Te krótkie, pozornie uspokajające deklaracje stały się punktem wyjścia do szerszej debaty o relacji „AI a klimat”. Zainteresowanie hasłami „ChatGPT zużycie energii” czy „ile wody zużywają centra danych OpenAI” rośnie wraz z popularyzacją narzędzi opartych na dużych modelach językowych. Użytkownicy przestają traktować je jako „magiczne” technologie w chmurze i coraz częściej pytają o ich realny koszt środowiskowy.
Celem niniejszego artykułu jest uporządkowanie tej dyskusji i przedstawienie niezależnej, krytycznej analizy. Po pierwsze, chodzi o wyjaśnienie, skąd bierze się ogromne zapotrzebowanie energetyczne i wodne generatywnej AI. Po drugie, o pokazanie, jak kształtuje się ślad węglowy takich usług – od zużycia prądu po łańcuch dostaw sprzętu. Po trzecie, o omówienie, jakie realne rozwiązania techniczne i biznesowe branża już wdraża, by te koszty ograniczać.
Analiza opiera się na publicznych wypowiedziach Sama Altmana i innych liderów Big Tech, oficjalnych raportach ESG oraz badaniach naukowych. Nie jest jednak podsumowaniem jednej konkretnej publikacji, lecz szerszym spojrzeniem na kontekst, w którym szef OpenAI stara się uspokoić opinię publiczną, jednocześnie sygnalizując realne ryzyko wąskich gardeł energetycznych i wodnych.
Co Sam Altman naprawdę sygnalizuje, mówiąc o energii i wodzie dla AI
W wystąpieniach Sama Altmana na konferencjach technologicznych i w wywiadach powtarza się kilka kluczowych motywów. Po pierwsze, otwarte przyznanie, że współczesne, duże modele językowe są wyjątkowo energochłonne. Trening najnowszych generacji modeli trwa tygodniami i wymaga tysięcy wyspecjalizowanych układów GPU, które pracują non stop, zamknięte w wysokonapiętych klastrach obliczeniowych. Po drugie, uznanie, że także sama faza użytkowania – odpowiadanie na miliony zapytań w czasie rzeczywistym – ma istotny koszt energetyczny, choć rozłożony na długie okresy i ogromną liczbę interakcji.
Po trzecie, w narracji Altmana szczególnie widoczne jest dążenie do zminimalizowania obaw dotyczących wody. Szef OpenAI podkreśla wysoką efektywność chłodzenia nowoczesnych centrów danych i relatywnie niewielki udział branży w globalnym zużyciu wody. Eksperci zwracają jednak uwagę, że nawet jeśli procentowo jest to dziś niewielki udział, to koncentracja poboru wody w konkretnych, często wrażliwych regionach sprawia, że lokalnie wpływ może być znaczący. W jednym z wywiadów, komentując przyszłość energetyczną AI, Altman przyznał, że „przemysł będzie potrzebował przełomów w dziedzinie taniej, czystej energii”, sygnalizując w ten sposób świadomość nadchodzących wąskich gardeł.
Po czwarte, Altman i inni liderzy Big Techu regularnie powtarzają argument, że energia zużyta na AI jest uzasadniona, ponieważ narzędzia te zwiększają produktywność, pomagają w badaniach nad energią odnawialną czy medycyną i mogą przyspieszyć zieloną transformację. Tego typu deklaracje można postrzegać jako próbę wyprzedzenia krytyki: zanim regulatorzy i opinia publiczna zaczną szczegółowo liczyć ślad węglowy generatywnej AI, biznes stara się wpisać ją w narrację „technologii ratującej klimat”.
Między wierszami tych wypowiedzi widać jednak świadomość, że sektor AI staje się jednym z najszybciej rosnących konsumentów energii elektrycznej i zasobów wodnych. Zapotrzebowanie na moc obliczeniową rośnie wykładniczo, a wraz z nim skala infrastruktury chmurowej. Problem dotyczy nie tylko OpenAI, lecz także konkurentów, takich jak Anthropic, Google czy Meta, którzy stają przed identycznymi ograniczeniami fizycznymi: dostępną mocą, chłodzeniem oraz lokalnymi zasobami wody.
Dalsza część artykułu przygląda się tym wyzwaniom z perspektywy technicznej i środowiskowej, wykraczając poza deklaracje PR-owe i pokazując, jaka fizyka kryje się za zapotrzebowaniem energetycznym i wodnym modeli generatywnych.
Skąd bierze się ogromne zużycie energii przez generatywną sztuczną inteligencję
Aby zrozumieć, dlaczego generatywna AI zużywa tyle energii, trzeba zacząć od podstaw: architektury centrów danych. Infrastruktura, na której działa ChatGPT i podobne systemy, to hale wypełnione setkami tysięcy serwerów. W przypadku modeli generatywnych kluczową rolę pełnią wyspecjalizowane akceleratory obliczeniowe – GPU i TPU – przystosowane do przetwarzania ogromnych macierzy liczb. Każdy taki układ może mieć moc rzędu kilkuset watów, a w największych klastrach wykorzystuje się tysiące akceleratorów jednocześnie.
W praktyce oznacza to, że pojedynczy klaster treningowy może zużywać moc porównywalną z małą elektrownią czy niewielkim miastem. Do tego dochodzi infrastruktura sieciowa, zasilacze, systemy zasilania awaryjnego (UPS), a przede wszystkim układy chłodzenia. Całość musi pracować w sposób ciągły, z minimalną liczbą przestojów, ponieważ jakakolwiek awaria w trakcie treningu modelu może oznaczać utratę tygodni obliczeń.
Wysokie zużycie energii przez AI dzieli się zasadniczo na dwa typy obciążeń. Pierwszy to trening modeli – proces jednorazowy dla danej wersji modelu, ale skrajnie intensywny energetycznie. Największe modele trenuje się przez tygodnie lub miesiące na tysiącach akceleratorów. Drugi rodzaj obciążenia to inferencja, czyli udzielanie odpowiedzi użytkownikom. Każda interakcja z chatbotem jest relatywnie mniej energochłonna niż trening, ale skumulowana skala – setki milionów zapytań dziennie – powoduje, że łączne zużycie energii w fazie użytkowania staje się równie istotne.
Szacunki badaczy wskazują, że pojedyncza sesja z chatbotem generatywnym może zużyć wyraźnie więcej energii niż klasyczne wyszukiwanie w internecie, choć dokładne wartości zależą od wielu czynników: wielkości modelu, optymalizacji infrastruktury, sposobu cache’owania wyników czy lokalizacji centrum danych. Dlatego warto traktować te dane jako przedziały i przybliżenia, a nie sztywne liczby.
W sektorze centrów danych kluczowym wskaźnikiem efektywności energetycznej jest PUE (Power Usage Effectiveness). Jest to stosunek całkowitej energii pobranej przez centrum danych do energii faktycznie zużywanej przez sprzęt IT (serwery, GPU, urządzenia sieciowe). PUE równe 1,2 oznacza, że na każdy 1 kWh zużyty przez sprzęt obliczeniowy potrzeba dodatkowo 0,2 kWh na chłodzenie, zasilanie pomocnicze i inne systemy. Najlepsze, najnowocześniejsze centra danych osiągają PUE bardzo bliskie 1, ale większość obiektów wciąż pracuje z wyższymi wartościami.
Nawet przy dobrym PUE generatywna AI pozostaje energochłonna z prostego powodu: sama ilość obliczeń rośnie w zawrotnym tempie. Każda kolejna generacja modeli ma więcej parametrów i działa na większych zbiorach danych, a rosnące oczekiwania użytkowników wymuszają szybsze odpowiedzi i większą dostępność usług. PUE pomaga ograniczyć straty, ale nie zmienia fundamentalnego faktu, że zapotrzebowanie na moc rośnie wraz ze skalą i złożonością modeli.
W przypadku partnerstwa Microsoft–OpenAI stawką nie jest już wydajność jednego centrum danych, lecz globalnej, wieloregionowej infrastruktury chmurowej Azure. Skalowanie tej infrastruktury wpływa nie tylko na środowisko, lecz także na rynek pracy i strategie korporacyjne – szerzej opisuje to tekst o tym, jak partnerstwo Microsoft–OpenAI przebudowuje rynek technologii i pracy z AI. Im większe modele i im więcej zastosowań, tym większa presja na budowę kolejnych farm serwerów i zabezpieczenie ich dostępu do energii elektrycznej.
Ukryty koszt wody: jak chłodzenie centrów danych OpenAI wpływa na zasoby wodne
Zużycie energii w centrach danych jest stosunkowo łatwe do zrozumienia i przeliczenia. Z wodą sprawa jest dużo bardziej skomplikowana i przez lata pozostawała na marginesie debaty. Tymczasem każda kilowatogodzina zamieniona na ciepło wewnątrz serwerowni musi zostać odprowadzona, aby utrzymać stabilną temperaturę pracy sprzętu. To właśnie funkcja systemów chłodzenia sprawia, że pytanie „ile wody zużywają centra danych OpenAI” staje się coraz istotniejsze.
Tradycyjne centra danych często korzystają z wież chłodniczych i chłodzenia wyparnego. Woda krąży w obiegu, odbiera ciepło z systemu klimatyzacji, a następnie jest schładzana przez częściowe odparowanie. „Zużycie” wody polega w tym przypadku przede wszystkim na jej utracie w postaci pary wodnej do atmosfery. Część wody można uzupełniać z recyklingu lub źródeł komunalnych, ale pewna ilość jest trwale tracona. Różnica między poborem wody (ile wody centrum danych pobiera z sieci czy lokalnych źródeł) a rzeczywistą konsumpcją (ile nie wraca do systemu w postaci ciekłej) ma tu kluczowe znaczenie.
Alternatywą są systemy chłodzenia powietrzem, w tym tzw. free cooling, które w sprzyjającym klimacie wykorzystują zimne powietrze z zewnątrz do obniżania temperatury w serwerowniach. W niektórych lokalizacjach stosuje się układy niemal bezwodne, oparte na zamkniętych obiegach cieczy lub zaawansowanych wymiennikach ciepła. Rozwiązania te ograniczają zużycie wody, ale często kosztem wyższych nakładów inwestycyjnych lub większego zużycia energii na wentylatory i pompy.
Kwestia lokalizacji centrów danych okazuje się kluczowa nie tylko z punktu widzenia kosztów energii, lecz także dostępności wody. Obiekty zbudowane w regionach o ograniczonych zasobach wodnych – suchych, narażonych na susze – mogą wywierać realną presję na lokalne systemy zaopatrzenia w wodę. Tam, gdzie zasoby są obfite, a infrastrukturę wodną rozbudowano z myślą o dużym przemysłowym poborze, wpływ pojedynczego centrum danych może być znacznie mniej odczuwalny.
Przedstawiciele branży, w tym Sam Altman, podkreślają, że udział centrów danych w globalnym zużyciu wody jest relatywnie mały w porównaniu z rolnictwem czy przemysłem ciężkim. Jest to prawda na poziomie statystyki globalnej, ale nie musi być uspokajające dla lokalnych społeczności. Jeśli budowa nowej serwerowni przypada na region, który już zmaga się z niedoborem wody, dodatkowy pobór może być realnym problemem społecznym i politycznym.
Dodatkowe wyzwanie stanowi transparentność danych. Informacje o zużyciu wody przez konkretne obiekty OpenAI czy ich partnerów chmurowych są zazwyczaj agregowane w szerszych raportach ESG dużych korporacji technologicznych. Często nie ma jasnego podziału na poszczególne regiony, typy obciążeń czy klientów. W efekcie odpowiedź na pytanie „ile wody zużywają centra danych OpenAI” pozostaje przybliżeniem opartym na szacunkach badaczy i fragmentarycznych raportach.
Z punktu widzenia odpowiedzialnego użytkownika warto przyjąć krytyczne podejście: śledzić raporty środowiskowe dużych firm, zwracać uwagę na informacje o zarządzaniu zasobami wodnymi i zadawać pytania o konkretne lokalizacje centrów danych. Presja klientów korporacyjnych i opinii publicznej może skłaniać dostawców AI do bardziej szczegółowego raportowania i przyspieszać inwestycje w technologie chłodzenia z minimalnym zużyciem wody.
Ślad węglowy generatywnej AI: od energii elektrycznej po łańcuch dostaw
Ślad węglowy (carbon footprint) to całkowita ilość emisji gazów cieplarnianych związanych z produktem lub usługą, przeliczona na ekwiwalent dwutlenku węgla (CO₂e). W przypadku generatywnej AI ślad węglowy nie ogranicza się wyłącznie do energii elektrycznej zużywanej w trakcie działania modelu. Obejmuje także emisje związane z produkcją sprzętu, jego transportem, utrzymaniem oraz infrastrukturą sieciową, dzięki której użytkownicy łączą się z usługą.
Na pierwszej warstwie mamy emisje związane z wytworzeniem serwerów, GPU, systemów chłodzenia i zasilania. Produkcja zaawansowanych układów scalonych wymaga wysokoenergochłonnych procesów technologicznych, wykorzystania metali ziem rzadkich i skomplikowanych łańcuchów dostaw. Emisje te są często klasyfikowane jako Scope 3 – pośrednie, związane z łańcuchem dostaw – i bywają najtrudniejsze do oszacowania.
Druga warstwa to emisje operacyjne (Scope 2), wynikające z energii elektrycznej zużywanej w centrach danych. Ich wielkość zależy nie tylko od zużycia energii per se, ale także od miksu energetycznego danego kraju czy regionu. Ten sam model AI zasilany energią z sieci opartej głównie na węglu będzie miał znacznie wyższy ślad węglowy niż w sytuacji, gdy działa w regionie z dominacją energetyki wiatrowej i słonecznej.
Trzecia warstwa to emisje pośrednie związane z infrastrukturą sieciową (routery, łącza, punkty wymiany ruchu) oraz urządzeniami użytkowników końcowych – od smartfonów po laptopy i stacje robocze. Wprawdzie udział pojedynczego zapytania do modelu w całkowitym śladzie węglowym urządzenia użytkownika jest niewielki, ale w skali globalnej miliardów interakcji tworzy zauważalny komponent.
Firmy takie jak OpenAI oraz ich partnerzy – w tym duże korporacje chmurowe – deklarują dążenie do zasilania infrastruktury w 100% energią ze źródeł odnawialnych. W praktyce często oznacza to zakup certyfikatów pochodzenia energii lub zawieranie długoterminowych kontraktów PPA z operatorami farm wiatrowych i słonecznych. To ważny krok, ale nie zawsze oznacza, że w danej godzinie pracy centrum danych faktycznie zasila je wyłącznie zielona energia. Rzeczywisty miks energetyczny w sieci może wciąż obejmować węgiel, gaz i inne paliwa kopalne.
Badania naukowe porównujące ślad węglowy treningu dużych modeli językowych do dobrze znanych aktywności pokazują, że pojedynczy trening topowego modelu może odpowiadać emisjom dziesiątek, a nawet setek lotów międzykontynentalnych czy kilkuletniej eksploatacji samochodu osobowego. Należy pamiętać, że są to szacunki oparte na konkretnych konfiguracjach sprzętowych i założeniach dotyczących miksu energetycznego. Konkretny ślad węglowy modeli OpenAI może się różnić, ale rząd wielkości pokazuje skalę wyzwania.
Rosnąca presja regulacyjna i ze strony inwestorów sprawia, że firmy z sektora AI będą musiały coraz dokładniej raportować swoje emisje w podziale na Scope 1, 2 i 3. Deklaracje CEO, takie jak słowa Altmana o tym, że „energia dla AI jest dobrze wykorzystana”, będą coraz częściej konfrontowane z twardymi danymi z raportów ESG, audytami oraz porównaniami między konkurentami.
Jak branża AI próbuje ograniczyć zużycie energii i wody: od optymalizacji modelu po OZE
Skala wyzwań energetyczno-środowiskowych nie oznacza, że branża AI pozostaje bierna. Przeciwnie, w wielu obszarach widać intensywną pracę nad zmniejszeniem śladu środowiskowego modeli generatywnych – zarówno z motywacji klimatycznych, jak i czysto biznesowych. Energia i woda stają się jednym z głównych kosztów operacyjnych centrów danych, a ich ceny i dostępność to dziś strategiczne ryzyka dla całego sektora.
Na poziomie samych modeli trwają prace nad optymalizacją architektur i algorytmów. Coraz większą uwagę przyciągają tzw. small language models – mniejsze, wyspecjalizowane modele, które w wybranych zastosowaniach dorównują większym systemom przy znacznie niższym zużyciu energii. Wykorzystuje się techniki przycinania modeli (pruning), kwantyzacji, kompresji oraz bardziej efektywne metody uczenia, które ograniczają liczbę potrzebnych operacji. Ważny trend to także rozwój wyspecjalizowanych akceleratorów obliczeniowych, projektowanych właśnie z myślą o efektywności energetycznej zadań AI.
Druga grupa strategii dotyczy samych centrów danych. Operatorzy inwestują w poprawę PUE poprzez modernizację systemów klimatyzacji, optymalizację przepływu powietrza, lepszą izolację termiczną czy integrację systemów zarządzania energią. Coraz częściej nowe obiekty lokalizuje się w chłodniejszych regionach, gdzie możliwe jest wykorzystanie naturalnego chłodzenia powietrzem przez dużą część roku. To pozwala ograniczyć zarówno zużycie energii na klimatyzację, jak i zapotrzebowanie na wodę w systemach wyparnych.
Technologie chłodzenia przechodzą przy tym własną rewolucję. Coraz popularniejsze staje się chłodzenie cieczą – zarówno w formie direct-to-chip, gdzie ciecz chłodząca przepływa bezpośrednio przez bloki termiczne przylegające do procesorów, jak i w formie zanurzeniowej (immersyjnej), w której całe serwery umieszcza się w specjalnych dielektrycznych płynach. Systemy tego typu mogą znacząco poprawić efektywność chłodzenia i zmniejszyć zapotrzebowanie na wodę, jeśli są projektowane w układach zamkniętych z recyklingiem ciepła.
Kolejnym kluczowym kierunkiem jest przejście na odnawialne źródła energii. Duże korporacje chmurowe zawierają długoterminowe kontrakty na zakup energii z farm wiatrowych i słonecznych, inwestują bezpośrednio w projekty OZE lub współtworzą je z lokalnymi partnerami. Część centrów danych łączy się z lokalnymi sieciami ciepłowniczymi, oddając nadmiar ciepła do ogrzewania budynków mieszkalnych i biurowych, co pozwala częściowo zrekompensować ich wpływ energetyczny.
Nie mniej istotne jest zarządzanie obciążeniem obliczeniowym. Najbardziej energochłonne zadania – przede wszystkim trening dużych modeli – można planować na godziny i dni, w których w systemie energetycznym występuje nadwyżka zielonej energii. W połączeniu z elastycznym skalowaniem mocy obliczeniowej w odpowiedzi na popyt użytkowników pozwala to zmniejszać ślad węglowy bez rezygnacji z rozwoju usług.
Podobnym wyzwaniom muszą stawić czoła wszyscy liczący się gracze w branży. Firma Anthropic, rozwijająca własne modele generatywne i narzędzia dla programistów, również zmaga się z problemem rosnących kosztów energii i chłodzenia. Historia rozwoju ich linii produktów ilustruje, jak nawet poboczne projekty AI mogą urosnąć do miliardowego biznesu, wymagając równocześnie odpowiedzialnego podejścia do infrastruktury – więcej o tym można przeczytać w tekście o tym, jak projekt Claude Code od Anthropic urósł do miliardowego biznesu narzędzi AI dla programistów.
Co te deklaracje znaczą naprawdę: etyka, transparentność i przyszłość „zielonej” AI
Na tle powyższych faktów stwierdzenie, że „energia zużyta na AI jest tego warta”, nabiera dwuznacznego charakteru. Z jednej strony trudno kwestionować potencjał sztucznej inteligencji do przyspieszania innowacji – od optymalizacji sieci energetycznych, przez modelowanie klimatu, po projektowanie nowych materiałów. Z drugiej strony, bez pełnej transparentności danych o zużyciu energii, wody i emisjach takie deklaracje pozostają w dużej mierze aktem wiary w zapewnienia dostawców technologii.
Rosnąca świadomość zależności między „AI a klimat” wpływa coraz mocniej na decyzje regulatorów, inwestorów i samych pracowników branży technologicznej. Regulatorzy w Unii Europejskiej i innych regionach zaczynają interesować się środowiskowym śladem infrastruktury cyfrowej, a systemy raportowania ESG stają się obowiązkowym elementem funkcjonowania dużych spółek giełdowych. Inwestorzy pytają nie tylko o tempo wzrostu przychodów z AI, ale też o długoterminową odporność modelu biznesowego na rosnące ceny energii i coraz ostrzejsze regulacje klimatyczne.
Jednocześnie kwestie środowiskowe coraz częściej pojawiają się w szerszej debacie o etyce pracy w AI. Dla części badaczy i inżynierów w Big Techu problemem nie są już wyłącznie zagadnienia prywatności, uprzedzeń algorytmicznych czy bezpieczeństwa modeli, lecz także ich wpływ na klimat i zasoby naturalne. Dane o tym, dlaczego część ekspertów odchodzi z największych firm technologicznych i jak ich decyzje kształtują przyszłość branży, analizuje m.in. tekst o etyce pracy w AI i odejściach badaczy z Big Techów. Środowiskowy koszt AI staje się jednym z elementów tej większej układanki.
Przyszłość „zielonej” AI rysuje się dziś w kilku możliwych scenariuszach. W najbardziej optymistycznej wersji sztuczna inteligencja staje się katalizatorem transformacji energetycznej, pomagając w projektowaniu lepszych sieci przesyłowych, optymalizując pracę magazynów energii, przyspieszając rozwój technologii OZE i usprawniając zarządzanie popytem. Zwiększona efektywność energetyczna centrów danych i przejście na odnawialne źródła energii sprawiają, że netto AI przyczynia się do redukcji emisji.
W mniej optymistycznym scenariuszu generatywna AI staje się nowym, ogromnym konsumentem energii, który utrudnia dekarbonizację, bo rośnie szybciej niż moce wytwórcze OZE. Wówczas presja na budowę nowych źródeł energii – również konwencjonalnych – może paradoksalnie spowolnić zieloną transformację. To od decyzji regulatorów, inwestorów i samych firm będzie zależeć, który z tych scenariuszy okaże się bliższy rzeczywistości.
Z perspektywy użytkownika końcowego i klientów korporacyjnych kluczowe jest przyjęcie aktywnej postawy. Zamiast bezkrytycznie ufać deklaracjom liderów firm technologicznych, warto traktować je jako element gry interesów między biznesem, regulatorami a społeczeństwem. Przy wyborze dostawców usług AI sensowne pytania to nie tylko: „jak dokładny jest model?”, „jakie ma funkcje?”, ale także: „jak wygląda jego ślad węglowy?”, „jak firma zarządza zużyciem wody?”, „jakie ma cele redukcji emisji i jak je monitoruje?”.
Świadome korzystanie z narzędzi AI oznacza m.in. rezygnację z nadmiarowych zapytań, preferowanie rozwiązań dopasowanych skalą do problemu (np. mniejszych modeli tam, gdzie nie potrzeba pełnej mocy dużych systemów) oraz docenianie dostawców, którzy inwestują w efektywność energetyczną i transparentne raportowanie. Warto śledzić rozwój regulacji klimatycznych dotyczących sektora cyfrowego oraz wskaźników środowiskowych raportowanych przez firmy, aby lepiej rozumieć realny koszt korzystania z „inteligentnych” usług.
Ostatecznie przyszłość „zielonej AI” zależy mniej od pojedynczych deklaracji prezesów, a bardziej od twardych inwestycji w efektywność, odnawialne źródła energii i uczciwe, szczegółowe raportowanie danych o zużyciu energii, wody i emisjach. To właśnie tego powinny domagać się społeczeństwa, regulatorzy i klienci. Jeśli generatywna sztuczna inteligencja ma faktycznie pomóc w walce z kryzysem klimatycznym, musi najpierw przejść własny egzamin z odpowiedzialności środowiskowej.

