Jak doszło do otwartego konfliktu między Anthropic a Pentagonem: Zarysuj tło całego sporu w możliwie przystępny sposób dla czytelnika, który pierwszy raz o nim słyszy.
Anthropic to jedna z kluczowych firm rozwijających tzw. modele graniczne sztucznej inteligencji, znana przede wszystkim z systemu Claude. W krótkim czasie rozwiązania tej spółki stały się jednym z najważniejszych narzędzi analitycznych dla amerykańskich instytucji bezpieczeństwa, w tym dla Pentagonu. Claude jest jednym z nielicznych modeli udostępnionych w ściśle tajnych sieciach obronnych i – według osób znających kulisy negocjacji – jedynym modelem najnowszej generacji dopuszczonym do pracy na najbardziej wrażliwych systemach wojskowych. (nextgov.com)
Na tej bazie zbudowano kontrakt z Departamentem Obrony, szacowany na około 200 mln dolarów. Zakładał on wykorzystanie AI przede wszystkim do analizy ogromnych zbiorów danych wywiadowczych, wsparcia oceny sytuacyjnej na polu walki, modelowania scenariuszy konfliktów czy automatyzacji części procedur decyzyjnych w łańcuchu dowodzenia. Innymi słowy – chodziło o narzędzie analityczne i wspomagające decyzje, a nie o sterowanie w pełni autonomiczną bronią czy masowe śledzenie ludności cywilnej.
Napięcie pojawiło się, gdy Pentagon zaczął domagać się zmiany warunków współpracy. Przedstawiciele Departamentu Obrony zażądali, by Claude mógł być używany „do wszystkich legalnych celów” w ramach działań wojskowych i wywiadowczych. Z pozoru brzmi to niewinnie – któż sprzeciwiałby się stosowaniu technologii wyłącznie w granicach prawa? Problem w tym, że z punktu widzenia Anthropic aktualne przepisy nie nadążają za możliwościami współczesnej AI i pozostawiają niebezpieczne luki, zwłaszcza w obszarze masowej inwigilacji i autonomicznej broni.
Anthropic już wcześniej wprowadził do swoich polityk dwie kluczowe „czerwone linie”: zakaz wykorzystania modeli do masowej inwigilacji obywateli Stanów Zjednoczonych oraz zakaz wsparcia dla w pełni autonomicznych systemów uzbrojenia. Gdy Pentagon zażądał usunięcia tych ograniczeń z umowy, prowadzone od tygodni rozmowy gwałtownie się zaostrzyły. Pentagoński rzecznik Sean Parnell publicznie podkreślał, że resort chce jedynie możliwości użycia Claude’a „do wszystkich zgodnych z prawem celów” i że departament „nie ma interesu w masowej inwigilacji Amerykanów ani w broni działającej bez udziału człowieka”. (defensenews.com)
Z drugiej strony dyrektor generalny Anthropic, Dario Amodei, stwierdził w oświadczeniu, że firma „nie może w dobrej wierze” zaakceptować żądań Pentagonu, skoro nowe zapisy kontraktowe „niemal w ogóle nie posuwają naprzód” ochrony przed wykorzystaniem Claude’a do masowej inwigilacji Amerykanów czy do w pełni autonomicznych systemów broni. (defensenews.com) W odpowiedzi resort obrony zagroził nie tylko zerwaniem kontraktu, ale też oznaczeniem Anthropic jako „ryzyka dla łańcucha dostaw” oraz sięgnięciem po Defense Production Act – ustawę z czasów zimnej wojny pozwalającą państwu wymuszać udostępnianie zasobów prywatnych firm na potrzeby obronne. (sfchronicle.com)
Groźba wpisania Anthropic na listę „supply chain risk” została następnie zrealizowana decyzją sekretarza obrony Pete’a Hegsetha, co w praktyce oznacza ograniczenia dla wszystkich kontraktorów wojskowych współpracujących z firmą. (theverge.com) Pentagon argumentuje, że nie pozwoli, aby prywatna spółka „dyktowała warunki” dotyczące operacyjnych decyzji armii, podczas gdy Anthropic odpowiada, że bez twardych gwarancji prawnych jej technologia może zostać wykorzystana w sposób sprzeczny z wartościami demokratycznymi i podstawowymi prawami człowieka.
Ten spór nie jest zwykłą kłótnią o zapisy kontraktowe. To studium przypadku dla globalnej debaty o tym, gdzie kończy się uzasadniona obrona narodowa, a zaczyna masowa inwigilacja społeczeństwa z pomocą sztucznej inteligencji, oraz czy firmy technologiczne mogą i powinny stawiać państwom „etyczne granice”. Szerzej ten wątek relacji między AI a wojskiem rozwijam w tekście „Pentagon kontra Anthropic: jak „sumienie” sztucznej inteligencji zmienia debatę o wojnie i bezpieczeństwie”.
Granica między obroną a inwigilacją: gdzie firmy AI stawiają „czerwone linie”
Kluczem do zrozumienia sporu Anthropic–Pentagon jest wyraźne oddzielenie trzech pojęć: wsparcia obrony, masowej inwigilacji i w pełni autonomicznej broni. Dla czytelnika, który na co dzień nie zajmuje się cyberbezpieczeństwem, różnice te mogą brzmieć abstrakcyjnie, ale w praktyce przekładają się na zupełnie inne konsekwencje dla prywatności i życia ludzi.
Masowa inwigilacja to sytuacja, w której państwo lub inny podmiot gromadzi, łączy i analizuje dane o milionach osób w sposób ciągły lub systemowy, często bez konkretnego podejrzenia wobec danej jednostki. Chodzi nie tylko o tradycyjne podsłuchy, lecz także o hurtowe zbieranie informacji o lokalizacji telefonów, historii przeglądania stron internetowych, płatnościach kartą czy zachowaniach w mediach społecznościowych. Sztuczna inteligencja potrafi złożyć te – z pozoru niegroźne – punkty danych w bardzo szczegółowy obraz życia każdego z nas: z kim się spotykamy, jakie mamy poglądy polityczne, kiedy zmieniamy pracę czy relacje.
W pełni autonomiczna broń to natomiast systemy, które samodzielnie wybierają i atakują cele bez „sensownej” kontroli człowieka. Nie chodzi o dzisiejsze drony, w których operator podejmuje ostateczną decyzję o użyciu siły, a AI wspiera jedynie rozpoznanie czy nawigację. W pełni autonomiczny system mógłby otrzymać jedynie ogólne zadanie – na przykład „neutralizuj wszystkie pojazdy typu X w obszarze Y” – a następnie samodzielnie identyfikować, śledzić i niszczyć cele, także w szybko zmieniających się warunkach, bez możliwości skutecznej interwencji człowieka.
Wreszcie, wsparcie analityczne i systemy wspomagania decyzji to obszar, w którym AI ma dziś najbardziej oczywiste i stosunkowo akceptowalne zastosowania wojskowe. Model taki jak Claude może przeszukiwać ogromne bazy danych wywiadowczych, syntetyzować informacje z raportów terenowych, zdjęć satelitarnych czy przechwyconej łączności, a następnie prezentować dowódcom scenariusze rozwoju sytuacji. Człowiek podejmuje decyzje, a AI jedynie pomaga dostrzec wzorce i ryzyka, których analityk z krwi i kości mógłby nie wychwycić.
Anthropic w swoich politykach wyznacza dwie wspomniane wcześniej „czerwone linie”: brak zgody na wykorzystanie modeli do masowej krajowej inwigilacji oraz brak zgody na współtworzenie w pełni autonomicznych systemów uzbrojenia. Firma argumentuje, że przekroczenie tych granic byłoby sprzeczne z wartościami demokratycznymi – takimi jak prawo do prywatności, wolność słowa i zgromadzeń – oraz z podstawowymi normami prawa humanitarnego, które wymagają rozróżniania celów wojskowych i cywilnych oraz proporcjonalności użycia siły.
Pentagon odpowiada, że zarówno masowa inwigilacja obywateli USA, jak i całkowicie autonomiczne decyzje o użyciu śmiercionośnej siły są już ograniczane przez istniejące prawo oraz wewnętrzne polityki. Stąd – zdaniem resortu – nie ma potrzeby dodatkowego wpisywania takich zakazów do umowy z pojedynczą firmą, a domaganie się tego przez Anthropic to próba uzyskania „prawa weta” wobec legalnych operacji wojskowych. Jednocześnie departament konsekwentnie unika twardych, kontraktowych sformułowań, które wiązałyby mu ręce w przyszłości, argumentując koniecznością przygotowania się na nowe typy zagrożeń i nieprzewidywalne działania przeciwników. (medium.com)
To właśnie w tej przestrzeni – między deklaracjami a brakiem jednoznacznych zapisów – pojawia się największe ryzyko nadużyć. Ten sam model AI może być bowiem narzędziem obrony albo masowej inwigilacji w zależności od tego, jakie dane do niego trafiają i jakie zadania zostały mu powierzone. Analiza zdjęć satelitarnych frontu, która pozwala szybciej wykryć ruchy wojsk przeciwnika i zminimalizować ryzyko dla własnych żołnierzy, różni się zasadniczo od analizy strumienia wideo z tysięcy kamer miejskiego monitoringu, wykorzystywanej do śledzenia aktywistów politycznych czy profilowania wyborców.
Ta ambiwalencja nie dotyczy wyłącznie Stanów Zjednoczonych. W Unii Europejskiej, w tym w Polsce, również trwa dyskusja o tym, czy narzędzia tworzone z myślą o bezpieczeństwie – jak systemy rozpoznawania twarzy w transporcie publicznym czy analiza danych telekomunikacyjnych – nie stają się w praktyce infrastrukturą nadzoru. W dalszej części przyjrzymy się, jak europejskie prawo próbuje te napięcia rozwiązać, ale już teraz warto zauważyć, że decyzje Anthropic mają wpływ także na standardy przyjmowane po drugiej stronie Atlantyku.
Jak techniczne „bezpieczne wyłączniki” w AI mają powstrzymywać nadużycia
Firmy takie jak Anthropic próbują nie tylko deklarować wartości, lecz także przekładać je na konkretne mechanizmy techniczne i produktowe. W świecie AI coraz częściej mówi się o „guardrails”, czyli „bezpiecznych wyłącznikach” – zestawie rozwiązań, które ograniczają najbardziej ryzykowne zastosowania modeli.
W uproszczeniu można powiedzieć, że guardrails to połączenie trzech warstw: ograniczeń technicznych w samym modelu, zasad wykorzystania zapisanych w regulaminach i licencjach oraz nadzoru ludzkiego nad kluczowymi zastosowaniami. Wszystkie trzy są potrzebne, bo żadna z nich nie jest wystarczająca w pojedynkę.
Na poziomie technicznym stosuje się filtry danych wejściowych i wyjściowych. Model może być tak skonfigurowany, by odmawiał odpowiedzi na prośby o zaprojektowanie systemu śledzenia całej populacji w czasie rzeczywistym, przygotowanie planu masowego profilowania politycznego czy dostarczenie szczegółowych instrukcji budowy w pełni autonomicznej broni. Tego typu zapytania mogą być rozpoznawane i blokowane, zanim AI wygeneruje jakąkolwiek treść.
Drugim elementem są twarde blokady na określone kategorie zastosowań, zapisane w dokumentacji i wymuszone po stronie infrastruktury dostępowej. API modelu może na przykład nie pozwalać na uruchomienie pewnych trybów analizy na wrażliwych zbiorach danych – nawet jeśli użytkownik technicznie byłby w stanie takie dane dostarczyć. Dodatkowo firmy stosują monitoring i audyt wykorzystania API: automatyczne systemy wykrywają nietypowe lub podejrzane wzorce użycia, a klienci próbujący obchodzić zasady mogą zostać zablokowani lub wezwani do wyjaśnień.
Trzecia warstwa to obowiązkowa „ludzka pętla decyzyjna” (human-in-the-loop) w zastosowaniach wysokiego ryzyka. W praktyce oznacza to, że nawet jeśli AI proponuje konkretną decyzję – na przykład wskazuje cel do ataku, typuje osoby do dalszej obserwacji czy rekomenduje zatrzymanie podejrzanego – ostateczny krok należy do odpowiednio przeszkolonego człowieka, który ponosi odpowiedzialność i ma możliwość odmowy.
Z perspektywy Pentagonu te „wyłączniki” bywają jednak postrzegane jako ryzyko operacyjne. Jeżeli model w kluczowym momencie odmówi działania – bo uzna, że zadanie może prowadzić do masowej inwigilacji albo użycia autonomicznej broni – dowódcy obawiają się „ślepej plamy” w sytuacji, gdy narzędzie jest najbardziej potrzebne. Stąd nacisk, aby ograniczenia bezpieczeństwa były możliwie elastyczne i interpretowane w świetle bieżącego prawa oraz polityk wewnętrznych, a nie zablokowane na stałe w samym modelu.
Dylemat firm AI polega na wyborze między twardymi ograniczeniami technicznymi, trudnymi do usunięcia nawet pod presją polityczną, a poleganiem głównie na zapisach kontraktowych i wewnętrznych regulacjach klienta, które w praktyce łatwiej obejść lub zmienić. Z biznesowego punktu widzenia drugi wariant jest atrakcyjniejszy – daje szerszy rynek, mniej konfliktów z rządami i większą elastyczność. Z punktu widzenia ochrony praw człowieka to jednak wariant bardziej ryzykowny.
Presja komercyjna nie jest tu bez znaczenia. Gdy analizujemy prognozy przychodów największych graczy, takich jak OpenAI, które według niektórych szacunków mogą sięgnąć nawet setek miliardów dolarów rocznie, o czym piszę w tekście „OpenAI do 2030 roku: czy przychody na poziomie 280 mld USD zmienią globalny rynek AI?”, łatwo zrozumieć, dlaczego część firm skłania się do „zmiękczenia” wyłączników bezpieczeństwa, aby nie tracić lukratywnych kontraktów wojskowych i rządowych.
Dlatego coraz więcej ekspertów podkreśla, że techniczne guardrails są konieczne, ale niewystarczające. Bez jasnych, precyzyjnych norm prawnych i zewnętrznego nadzoru – zarówno na poziomie krajowym, jak i międzynarodowym – decyzje o tym, gdzie przebiegają granice użycia AI, pozostają w dużej mierze w rękach kilku prywatnych firm i pojedynczych resortów obrony.
Co na to prawo: masowa inwigilacja, broń autonomiczna i regulacje po obu stronach Atlantyku
Pentagon uzasadnia swoje stanowisko w sprawie Anthropic przede wszystkim argumentem, że masowa inwigilacja obywateli USA oraz w pełni autonomiczna broń są już ograniczane przez istniejące przepisy i wewnętrzne regulacje wojskowe. Skoro prawo zakazuje takich praktyk – twierdzą przedstawiciele resortu – nie ma potrzeby tworzenia dodatkowych zapisów w kontraktach z dostawcami technologii. Gdy Anthropic pyta: „jeśli prawo i tak chroni obywateli, to dlaczego nie wpisać tego wprost do umowy?”, odpowiedzią jest odwołanie do zasady, że to państwo – a nie prywatna firma – powinno definiować zakres własnych uprawnień.
Problem w tym, że praktyka ostatnich dwóch dekad pokazuje, jak szeroki może być w USA zakres dopuszczalnego nadzoru, zwłaszcza po zamachach z 11 września 2001 roku. Ujawnione programy masowego zbierania danych telekomunikacyjnych, lokalizacyjnych czy internetowych pokazały, że granica między „celowanym” a „hurtowym” nadzorem bywa bardzo płynna. Co więcej, prawo często nie nadąża za możliwościami technicznymi – to, co jeszcze kilkanaście lat temu było niewykonalne technicznie, dziś jest rutynową procedurą analityczną.
Anthropic zwraca uwagę, że pod obecnymi regulacjami rząd może legalnie kupować rozbudowane komercyjne zbiory danych o ruchach, aktywności online czy powiązaniach społecznych Amerykanów, a następnie analizować je z pomocą AI na masową skalę – bez uzyskiwania tradycyjnego nakazu sądowego, bo formalnie są to dane „publicznie dostępne” lub pozyskane przez pośredników. Z perspektywy prawa może to nie być „masowa inwigilacja” w klasycznym sensie, ale z perspektywy prywatności i praw obywatelskich efekt jest bardzo zbliżony. (the-decoder.com)
Europejskie podejście do tych zagadnień jest wyraźnie bardziej restrykcyjne. Karta Praw Podstawowych Unii Europejskiej gwarantuje prawo do prywatności i ochrony danych osobowych jako odrębne, podstawowe prawa. Ogólne rozporządzenie o ochronie danych (RODO) nakłada na instytucje publiczne i prywatne bardzo konkretne obowiązki dotyczące minimalizacji danych, ich zabezpieczenia i transparentności przetwarzania, a wrażliwe kategorie (np. dane biometryczne) podlegają szczególnej ochronie.
Równolegle toczą się prace nad regulacją AI, która w wersji negocjowanej między państwami członkowskimi i Parlamentem Europejskim przewiduje m.in. poważne ograniczenia w stosowaniu systemów rozpoznawania twarzy w przestrzeni publicznej, zakazy systemów oceny „wiarygodności społecznej” na wzór scoringu w Chinach oraz dodatkowe wymogi dla zastosowań wysokiego ryzyka w sektorze bezpieczeństwa i wymiaru sprawiedliwości. W Polsce i innych krajach UE dyskutuje się również o dopuszczalności zaawansowanych systemów monitoringu miejskiego czy analizy danych telekomunikacyjnych przez służby – zwłaszcza w kontekście niedawnych sporów o użycie narzędzi inwigilacji wobec opozycji.
Kluczowa różnica polega na tym, że w USA spór Anthropic–Pentagon rozgrywa się przede wszystkim w ramach relacji pomiędzy firmą a rządem, negocjowanych w konkretnym kontrakcie. W Unii rośnie rola nadrzędnych ram prawnych, które mają ograniczać nawet te firmy, które są bardzo „posłuszne” wobec rządów. Europejskie przepisy dotyczą nie pojedynczej umowy, lecz całych klas zastosowań technologii – niezależnie od tego, czy dostawcą jest lokalny start-up, globalny gigant czy ministerstwo obrony.
Brak jednoznacznych globalnych standardów sprawia jednak, że to duże firmy AI muszą same definiować swoje „czerwone linie” – szczególnie gdy działają równolegle w kilku porządkach prawnych. To, że Anthropic zdecydowało się utrzymać swoje ograniczenia mimo presji, czyni ten konflikt potencjalnym precedensem, do którego będą odwoływać się zarówno inni dostawcy, jak i regulatorzy.
Europejska dyskusja o suwerenności danych i infrastrukturze chmurowej tylko wzmacnia tę dynamikę. Projekty takie jak europejskie regiony chmurowe kontrolowane pod względem jurysdykcyjnym – opisane szerzej w analizie „Suwerenna chmura w Europie: co zmienia wejście Genesys Cloud na AWS European Sovereign Cloud dla contact center” – pokazują, że także na Starym Kontynencie pytanie „gdzie są przetwarzane dane i kto ma do nich dostęp” staje się politycznie wrażliwe. W tle stoi obawa, że dane obywateli UE mogłyby zostać objęte amerykańskimi przepisami nadzorczymi, jeśli będą przetwarzane w infrastrukturze podlegającej amerykańskiej jurysdykcji.
Efekty uboczne sporu: licencje, reputacja i nowa mapa ryzyka dla firm AI
Bezpośrednim skutkiem konfliktu Anthropic–Pentagon jest ryzyko utraty kontraktu wartego około 200 mln dolarów, wpisania firmy na listę „ryzyka łańcucha dostaw” oraz formalnego sięgnięcia po Defense Production Act (DPA). Ta ostatnia ustawa, sięgająca korzeniami czasów wojny koreańskiej, daje prezydentowi i administracji szerokie uprawnienia do nakazywania firmom priorytetowego traktowania zamówień związanych z obronnością, a w skrajnych przypadkach – do wymuszania udostępniania określonych produktów czy usług na rzecz państwa. W praktyce jest to instrument pozwalający rządowi na „odzyskanie kontroli” nad zasobami strategicznymi w sytuacji, gdy rynek lub dostawcy nie zachowują się zgodnie z oczekiwaniami władz. (sfchronicle.com)
Anthropic, broniąc swoich ograniczeń bezpieczeństwa, paradoksalnie może jednak zyskać na reputacji. Dla części klientów komercyjnych, zwłaszcza tych wrażliwych na kwestie odpowiedzialnej AI – od firm z sektora finansowego po organizacje pozarządowe – postawa „stawiania się” rządowi w obronie praw człowieka może być dowodem wiarygodności i spójności wartości. Z drugiej strony dla niektórych agend rządowych i wojskowych Anthropic stanie się partnerem „trudnym”, co może utrudnić pozyskiwanie nowych kontraktów publicznych, nie tylko w USA.
Dla reszty rynku sygnał jest czytelny: próba wpisania do umów z wojskiem twardych ograniczeń dotyczących masowej inwigilacji i autonomicznej broni wiąże się z poważnym ryzykiem politycznym i biznesowym. Konkurenci Anthropic – tacy jak OpenAI, Google czy xAI – są postrzegani jako bardziej skłonni do zaakceptowania formuły „wszystkie legalne zastosowania” i negocjowania ograniczeń raczej na poziomie miękkich polityk niż twardych zakazów w licencjach. (axios.com)
Konsekwencje reputacyjne dotykają także Pentagonu. Oskarżenia o „szantażowanie” prywatnej firmy technologicznej, groźby użycia DPA oraz rozciągnięcie statusu „supply chain risk” na partnerów Anthropic budzą obawy, że resort skłonny jest lekceważyć zastrzeżenia etyczne, jeśli w grę wchodzi swoboda operacyjna. To z kolei może pogłębiać nieufność obywateli i organizacji pozarządowych wobec inicjatyw AI w sektorze publicznym, utrudniając wdrażanie nawet tych projektów, które są społecznie pożądane – na przykład lepszego wykrywania cyberataków czy usprawnienia systemów reagowania kryzysowego.
W Kongresie i wśród opinii publicznej rośnie presja, by zwiększyć przejrzystość projektów AI w wojsku: część senatorów wzywa do wzmocnienia zewnętrznego nadzoru i wprowadzenia jasnych, ustawowych zakazów masowej inwigilacji oraz w pełni autonomicznej broni, właśnie po to, by podobne spory nie musiały być rozstrzygane ad hoc w gabinetach prawników kontraktowych.
Konkurenci Anthropic odczytują sytuację wielowymiarowo. Z jednej strony pojawia się szansa na przejęcie kontraktów i umocnienie pozycji w sektorze obronnym. Z drugiej – istnieje ryzyko powstania swoistego „etapowania etycznego”: najbardziej wrażliwe z punktu widzenia praw człowieka zastosowania AI trafią do firm, które mają najsłabsze standardy etyczne, bo to one są gotowe pójść na największe ustępstwa wobec wojska. W długim okresie może to prowadzić do dalszej erozji standardów ochrony prywatności i prawa humanitarnego.
W perspektywie kilku lat obecny spór może stać się katalizatorem dla poważnych zmian w praktyce kontraktowej i polityce korporacyjnej firm AI. Można się spodziewać:
- nowych, precyzyjnych klauzul w umowach licencyjnych, które wprost zakazują wykorzystania modeli do masowej inwigilacji ludności cywilnej i do w pełni autonomicznego rażenia celów,
- wymogów większej transparentności wobec rządów i opinii publicznej, na przykład w formie raportów o zastosowaniach AI w sektorze publicznym,
- przemodelowania strategii biznesowych części firm – z podejścia „AI do wszystkiego” w stronę „wybiórczego partnerstwa” z instytucjami, które respektują minimalne standardy etyczne.
Konflikt ten wpisuje się w szerszy ciąg zderzeń między logiką wojskową a „sumieniem” firm technologicznych, o czym szerzej pisałem w tekście o Pentagonie i „sumieniu” AI. Anthropic nie jest pierwszą firmą, która próbuje postawić granice wojsku – ale jest jedną z nielicznych, które robią to w momencie planowanej oferty publicznej, ryzykując znaczącą część swojej przyszłej wyceny.
Lekcje dla obrońców praw człowieka, ekspertów cyberbezpieczeństwa i decydentów publicznych
Spór Anthropic–Pentagon niesie ważne wnioski dla kilku grup interesariuszy. Dla organizacji broniących praw człowieka najważniejszy jest sygnał, że granica między obroną a inwigilacją nie jest abstrakcyjnym problemem filozoficznym, lecz realnym przedmiotem negocjacji w umowach licencyjnych i politykach wykorzystania AI. To tam rozstrzyga się, czy dane narzędzie będzie mogło być użyte do śledzenia milionów ludzi, czy nie.
Dla tego środowiska kluczowe staje się więc monitorowanie nie tylko deklaracji PR-owych firm technologicznych, ale właśnie konkretnych zapisów kontraktowych – zwłaszcza w projektach finansowanych ze środków publicznych. Analiza klauzul dotyczących zakazu masowej inwigilacji, zakresu dopuszczalnego profilowania czy wymogów audytu powinna stać się stałym elementem pracy watchdogów.
Dla ekspertów cyberbezpieczeństwa lekcją jest dwoistość roli AI w sektorze obronnym. Z jednej strony narzędzia takie jak Claude umożliwiają szybsze wykrywanie zagrożeń, analizę złożonych kampanii cybernetycznych, wykrywanie anomalii w ruchu sieciowym i lepszą ochronę infrastruktury krytycznej. Z drugiej – te same możliwości analityczne mogą posłużyć do budowy systemów nadzoru o niespotykanej dotąd skali, łączących dane z sieci, urządzeń mobilnych, systemów miejskiego monitoringu i baz komercyjnych.
To sprawia, że audytowalność systemów AI staje się kluczowa. Chodzi o zapewnienie, by działanie modeli w krytycznych zastosowaniach było rejestrowane: logi wejść i wyjść, ścieżki decyzyjne, parametry użytych algorytmów. Tylko wtedy niezależni eksperci będą w stanie ocenić po fakcie, czy AI była użyta zgodnie z prawem i zasadami etycznymi, a w razie potrzeby wskazać winnych nadużyć.
Dla polityków i regulatorów – zarówno w Brukseli, jak i w Warszawie – sprawa Anthropic–Pentagon powinna być impulsem do konkretnych działań normatywnych. Można wskazać co najmniej kilka kierunków:
- wprowadzenie obowiązku jawnych zakazów masowej inwigilacji ludności krajowej oraz w pełni autonomicznej broni w umowach publicznych dotyczących AI,
- ustanowienie wymogów niezależnego nadzoru nad projektami AI w sektorze bezpieczeństwa – na przykład w formie wyspecjalizowanych organów z udziałem ekspertów technicznych i organizacji społecznych,
- obowiązkowe oceny wpływu na prawa człowieka (Human Rights Impact Assessment) dla dużych wdrożeń AI w administracji, zwłaszcza tam, gdzie w grę wchodzi przetwarzanie danych wrażliwych lub możliwość ingerencji w wolności obywatelskie,
- zbliżanie standardów transatlantyckich (USA–UE) tak, aby ograniczyć ryzyko „wyścigu w dół”, w którym kontrakty otrzymują podmioty o najbardziej liberalnym podejściu do etyki.
Konflikt Anthropic–Pentagon już dziś staje się punktem odniesienia w globalnej debacie. Jeśli firma utrzyma swoje „czerwone linie” mimo presji rządu, pokaże, że prywatny sektor może realnie współtworzyć normy dotyczące masowej inwigilacji i autonomicznej broni, a nie jedynie dostosowywać się do istniejących regulacji.
W polskim kontekście praktyczne znaczenie ma pytanie, jak samorządy i instytucje publiczne planujące wykorzystanie AI w monitoringu miejskim, zarządzaniu ruchem czy analizie danych mieszkańców, mogą wdrożyć minimalne standardy bezpieczeństwa. Nawet jeśli prawo nie nakazuje jeszcze szczegółowych rozwiązań, można wprowadzać dobrowolne ograniczenia: wymóg obecności człowieka w podejmowaniu decyzji ingerujących w prawa obywatelskie, ograniczenie retencji danych, obowiązek przejrzystego informowania mieszkańców o stosowanych systemach oraz zewnętrzne audyty algorytmów.
Na marginesie warto zauważyć, że wraz z rosnącą koncentracją władzy technologicznej i finansowej w rękach kilku globalnych graczy AI – czego przykładem są prognozy przychodów OpenAI – znaczenie jasnych zasad stosowania AI w obszarze bezpieczeństwa tylko rośnie. Im większy wpływ kilku firm na infrastrukturę cyfrową państw, tym mniejsze pole manewru mają pojedyncze rządy, jeśli wcześniej nie zadbają o spójne standardy prawne i etyczne.
Czy etyczna AI przetrwa starcie z realpolitik bezpieczeństwa narodowego?
Spór Anthropic–Pentagon kondensuje kilka kluczowych napięć epoki sztucznej inteligencji. Z jednej strony mamy firmę, która próbuje wbudować „sumienie” w swoje modele i licencje – w postaci jasno sformułowanych czerwonych linii dotyczących masowej inwigilacji i w pełni autonomicznej broni. Z drugiej – resort obrony wielkiego mocarstwa, reprezentujący logikę bezpieczeństwa narodowego, dla której punkt wyjścia stanowi formuła „wszystkie legalne zastosowania”, a każda dodatkowa bariera jest potencjalnym zagrożeniem dla swobody operacyjnej.
W tle rozgrywa się konflikt między szybkim wzrostem możliwości technicznych AI a znacznie wolniejszym tempem dostosowywania prawa. Dzisiejsze przepisy nadzorcze powstawały w świecie, w którym analiza hurtowych zbiorów danych o setkach milionów ludzi wymagała ogromnych zasobów i była logistycznie trudna. W erze generatywnej AI i zaawansowanej analityki to, co kiedyś było „nierealne”, dziś można wdrożyć w skali przemysłowej.
Pytanie brzmi, czy model „twardych czerwonych linii”, który proponuje Anthropic, ma szansę przetrwać w sytuacji, gdy stawka finansowa (kontrakty rzędu setek milionów dolarów) i polityczna (argument obrony przed rywalami geopolitycznymi, jak Chiny czy Rosja) będzie dalej rosła. Scenariusze są co najmniej trzy.
W scenariuszu pozytywnym dochodzi do kompromisu: rządy – w tym amerykański – akceptują, że minimalne zakazy masowej inwigilacji i w pełni autonomicznej broni muszą być zapisane wprost w umowach oraz w prawie. Firmy technologiczne uzgadniają z resortami obrony katalog dozwolonych zastosowań AI, a spory przenoszą się na poziom konkretnych interpretacji, a nie zasadniczych zasad. W takim świecie etyczne guardrails stają się standardem branżowym, a nie ekscentryczną decyzją pojedynczej spółki.
W scenariuszu negatywnym firmy, które próbują stawiać twarde granice, zostają stopniowo wypchnięte z najbardziej lukratywnych kontraktów wojskowych i rządowych. Na ich miejsce wchodzą podmioty mniej wrażliwe na kwestie etyczne, gotowe przyjąć formułę „wszystkie legalne zastosowania” bez dodatkowych zastrzeżeń. Efektem jest de facto „prywatyzacja” ryzyka: najbardziej kontrowersyjne projekty trafiają do firm, które najmniej dbają o standardy praw człowieka, a rządy mogą tłumaczyć się, że działają zgodnie z prawem i że to dostawcy ponoszą odpowiedzialność za szczegóły techniczne.
Wreszcie, w scenariuszu regulacyjnym bezprecedensowe napięcia, takie jak konflikt Anthropic–Pentagon, przyspieszają tworzenie twardych ram prawnych – zarówno w UE, jak i potencjalnie w USA. Minimalne standardy dotyczące zakazu masowej inwigilacji, wymogu sensownej kontroli człowieka nad użyciem siły czy audytowalności systemów AI stają się elementem ustaw, a nie tylko polityk firm. W takim świecie rola pojedynczych spółek w wyznaczaniu „czerwonych linii” maleje, ale wzrasta znaczenie demokratycznie uchwalanych norm.
Niezależnie od tego, który z tych scenariuszy się ziści, długofalowym „efektem ubocznym” obecnego sporu jest uświadomienie opinii publicznej, że linia podziału między obroną a inwigilacją nie jest abstrakcyjnym dylematem etyków. To kwestia konkretnych paragrafów w umowach, linijek kodu w modelu AI i decyzji politycznych podejmowanych w gabinetach ministrów. Od tego, jak zostaną napisane i wdrożone, zależy, czy technologia stanie się tarczą chroniącą demokratyczne społeczeństwa, czy siecią nadzoru oplatającą życie codzienne obywateli.
Dla czytelników zainteresowanych pogłębieniem tego tematu na poziomie praktycznych zastosowań wojskowych AI oraz europejskich inicjatyw w zakresie suwerennej chmury i ochrony danych odsyłam do powiązanych analiz na moim portalu, w tym do wspomnianych tekstów o Pentagonie i „sumieniu” AI, o prognozowanych przychodach OpenAI oraz o suwerennej chmurze w Europie. Ostatecznie pytanie pozostaje otwarte: czy społeczeństwa demokratyczne są gotowe, by świadomie zdecydować, jak daleko może posunąć się sztuczna inteligencja w imię bezpieczeństwa – i gdzie absolutnie nie wolno przekroczyć granicy prywatności oraz nienaruszalności jednostki?

