Spór Anthropic–Pentagon jako sygnał ostrzegawczy dla epoki militarnej sztucznej inteligencji
Konflikt pomiędzy firmą Anthropic a amerykańskim Departamentem Obrony stał się jednym z najgłośniejszych sporów na styku nowych technologii, wojska i polityki. W centrum uwagi znalazł się kontrakt wart setki milionów dolarów, obejmujący wykorzystanie modelu językowego Claude w systemach wojskowych. Kluczowe nie są jednak same pieniądze, lecz dwie zasady, które Anthropic wpisało do umowy: zakaz masowej inwigilacji obywateli USA z użyciem modelu oraz zakaz wykorzystywania go do w pełni autonomicznej broni ofensywnej.
24 lutego 2026 roku sekretarz obrony USA zażądał usunięcia tych ograniczeń i dopuszczenia modelu Claude do „wszelkich zgodnych z prawem celów wojskowych”. Firma odmówiła. W odpowiedzi administracja federalna uznała Anthropic za podmiot zagrażający łańcuchowi dostaw bezpieczeństwa narodowego i zapowiedziała stopniowe wygaszenie współpracy agencji rządowych z tym dostawcą. Taka klasyfikacja była dotąd stosowana głównie wobec podmiotów zagranicznych, co nadaje sprawie bezprecedensowy charakter.
W praktyce nie chodzi już o jeden kontrakt, lecz o pytanie znacznie szersze: kto realnie wyznacza granice użycia sztucznej inteligencji w obszarze obronności – państwo, powołujące się na mandat demokratyczny i bezpieczeństwo obywateli, czy prywatne firmy, które tworzą kluczowe modele i uważają się za współodpowiedzialne za ich konsekwencje? Odpowiedź na to pytanie będzie kształtować nie tylko przyszłość militarnej AI, lecz także relacje między państwami a sektorem technologicznym w ogóle.
Niniejszy tekst adresowany jest zarówno do decydentów publicznych, organizacji pozarządowych i ekspertów ds. bezpieczeństwa, jak i do szerokiej opinii publicznej. Dlatego wyjaśnia podstawowe pojęcia, unika hermetycznego żargonu, a zarazem opiera się na aktualnych badaniach i analizach geopolitycznych. W kolejnych częściach opisuje fakty dotyczące sporu Anthropic–Pentagon, umieszcza je w szerszym kontekście rozwoju militarnej AI, porządkuje modele współpracy firm z państwem, analizuje potencjalne nadużycia oraz proponuje konkretne wnioski dla polityk publicznych i biznesu.
Jak doszło do konfliktu Anthropic–Pentagon: fakty, warunki umowy i narastająca presja
Anthropic to założona przez byłych pracowników OpenAI firma specjalizująca się w tzw. generatywnej sztucznej inteligencji. Jej flagowym produktem jest model Claude, duży model językowy klasy LLM, konkurent takich rozwiązań jak ChatGPT. Od lata 2025 roku Claude był stopniowo wdrażany w wybranych systemach Departamentu Obrony USA, między innymi poprzez integracje z platformami analitycznymi działającymi w sieciach o podwyższonym poziomie bezpieczeństwa.
W lipcu 2025 roku Pentagon podpisał z Anthropic wieloletni kontrakt o wartości do 200 mln dolarów. Umowa przewidywała szerokie spektrum zastosowań: od analizy danych wywiadowczych, przez wsparcie procesu planowania operacyjnego, po narzędzia do tłumaczeń i przetwarzania dokumentów. Z punktu widzenia rynku obronnego nie był to kontrakt przełomowy finansowo, ale istotny symbolicznie – sygnalizował, że generatywna AI staje się standardowym elementem infrastruktury bezpieczeństwa narodowego.
Równocześnie Dario Amodei, współzałożyciel i dyrektor generalny Anthropic, od początku istnienia firmy publicznie podkreślał dwie czerwone linie, których – jak deklarował – spółka nie zamierza przekraczać. Po pierwsze, model nie może służyć do masowej inwigilacji obywateli USA. Po drugie, nie może być wykorzystywany do sterowania w pełni autonomiczną bronią podejmującą decyzję o ataku bez udziału człowieka.
Amodei uzasadniał te ograniczenia podwójnie. Moralnie – argumentując, że demokracje nie powinny budować infrastruktury stałego nadzoru nad obywatelami ani przekazywać maszynom decyzji o życiu i śmierci. Technicznie – wskazując, że obecne systemy AI nie są wystarczająco niezawodne w warunkach bojowych i mogą błędnie identyfikować cele, mylić jednostki własne z przeciwnikiem czy „strzelać” do cywilów. W przypadku inwigilacji zwracał uwagę na lukę między tempem rozwoju technologii a powolną ewolucją prawa: wiele form hurtowego pozyskiwania i łączenia danych jest formalnie legalnych, choć budzi poważne wątpliwości konstytucyjne i etyczne.
Przez kilka miesięcy współpraca rozwijała się relatywnie spokojnie. Sytuacja zmieniła się 24 lutego 2026 roku, gdy – jak relacjonują amerykańskie media – sekretarz obrony Pete Hegseth zażądał usunięcia z kontraktu wszelkich dodatkowych ograniczeń narzuconych przez Anthropic. Pentagon domagał się, aby model mógł być wykorzystywany do wszystkich celów wojskowych, o ile są one zgodne z obowiązującym prawem. Spółka odmówiła, powołując się na wcześniej deklarowane zasady i ryzyka systemowe związane z autonomiczną bronią.
Wkrótce potem administracja ogłosiła, że Anthropic zostaje wpisane na listę podmiotów uznanych za zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego. Agencjom federalnym wyznaczono kilkumiesięczny termin na wygaszenie istniejących kontraktów. W amerykańskim systemie prawnym jest to krok bardzo daleko idący, dotąd stosowany głównie wobec firm z krajów uznawanych za potencjalnych przeciwników strategicznych. Kierownictwo Anthropic zapowiedziało kroki prawne, a Amodei określił decyzję jako nieproporcjonalną i politycznie motywowaną.
Oficjalne uzasadnienie Pentagonu odwołuje się do innej logiki. Przedstawiciele resortu argumentują, że Departament Obrony musi mieć możliwość korzystania z technologii w granicach prawa, bez „prywatnego weta” ze strony spółek komercyjnych. Państwo, ich zdaniem, nie może uzależniać kluczowych narzędzi obronnych od decyzji zarządu jednej firmy, która odpowiada przed inwestorami, a nie przed wyborcami.
W tle sporu pojawiają się także wyniki badań nad zachowaniem modeli AI w symulacjach kryzysów nuklearnych. Jeden z najbardziej dyskutowanych eksperymentów, prowadzony przez prof. Kennetha Payne’a z King’s College London, polegał na tym, że trzy różne modele – w tym Claude – symulowały decyzje przywódców w scenariuszach eskalacji konfliktu z dostępem do taktycznej broni jądrowej. Według Payne’a w zdecydowanej większości symulacji modele uznawały użycie takiej broni za narzędzie nacisku politycznego, częściej niż czyniliby to ludzie. Badanie ma ograniczenia metodologiczne i dotyczy tylko generowania tekstu, a nie realnych algorytmów sterujących systemami broni, ale wzmacnia obawy, że AI nie podziela ludzkich tabu i może „racjonalizować” eskalację w sposób nieakceptowalny społecznie.
Warto dodać, że niemal równolegle inna czołowa firma – OpenAI – ogłosiła podpisanie własnej umowy z Departamentem Obrony. Publiczne deklaracje OpenAI są zbliżone do tych formułowanych przez Anthropic: brak zgody na masową inwigilację obywateli oraz brak wsparcia dla w pełni autonomicznej broni. Różnica polega jednak na tym, że OpenAI kładzie większy nacisk na ogólną zgodność z prawem i wewnętrzne polityki użycia, podczas gdy Anthropic próbowało wpisać konkretne czerwone linie bezpośrednio do kontraktu. Spór o to, które podejście jest bardziej odpowiedzialne, dopiero się zaczyna.
Militarna sztuczna inteligencja w szerszym kontekście: od Doliny Krzemowej po Pekin i Moskwę
Aby zrozumieć stawkę konfliktu Anthropic–Pentagon, warto spojrzeć szerzej na to, czym są militarne zastosowania AI. Wbrew filmowym skojarzeniom nie chodzi wyłącznie o roboty bojowe. Sztuczna inteligencja przenika dziś niemal wszystkie warstwy infrastruktury obronnej: analizę danych wywiadowczych, planowanie operacji, logistykę, cyberbezpieczeństwo, systemy rozpoznania i naprowadzania, a także systemy uzbrojenia z różnym stopniem autonomii.
Nowoczesne algorytmy są w stanie w krótkim czasie przetwarzać ogromne ilości zdjęć satelitarnych, przechwyconych komunikatów, nagrań z dronów czy danych z sensorów, wyłapując wzorce niewidoczne dla człowieka. W planowaniu operacyjnym wspierają sztaby w tworzeniu wariantów działań, symulacjach przebiegu konfliktu i analizie ryzyka. W logistyce optymalizują trasy zaopatrzenia, zarządzają magazynami i utrzymaniem sprzętu. W cyberprzestrzeni służą do wykrywania anomalii, a także do prowadzenia ofensywnych operacji informacyjnych.
Jednocześnie rośnie udział systemów uzbrojenia, które w coraz większym stopniu działają półautonomicznie – od przeciwlotniczych systemów obrony, przez drony rojujące, po precyzyjną amunicję krążącą. W wielu z nich człowiek formalnie pozostaje „w pętli” (human in the loop), zatwierdzając ostateczną decyzję o ataku, ale praktyka pokazuje, że w warunkach bardzo szybkiej wymiany informacji ludzie coraz częściej pełnią rolę nadzorców (human on the loop), jedynie monitorujących działanie systemów.
Napięcia między Doliną Krzemową a resortami siłowymi nie są nowe. Już w poprzedniej dekadzie głośne były protesty części pracowników Google przeciwko projektowi Maven, w ramach którego miała powstać technologia rozpoznawania obiektów na nagraniach z dronów. Kontrowersje budziła także współpraca Amazon Web Services z CIA oraz inne kontrakty chmurowe dla struktur wywiadowczych. Różnica polega na tym, że obecnie generatywna AI staje się technologią systemową, która może równocześnie oddziaływać na sferę wojskową, gospodarczą i informacyjną. Model taki jak Claude czy jego konkurenci może być wykorzystywany zarówno do analizy danych, tworzenia treści, symulacji, jak i do wsparcia procesów decyzyjnych na najwyższym szczeblu.
Spór ma również wyraźny wymiar geopolityczny. Chiny intensywnie rozwijają wojskowe zastosowania AI w ramach strategii modernizacji armii, łącząc inwestycje państwowe z potencjałem sektora prywatnego. Rosja, a także inne państwa, inwestują w autonomiczne systemy bojowe, w tym drony uderzeniowe i systemy rozpoznania. Zwolennicy bardziej elastycznego podejścia w USA i Europie argumentują, że państwa demokratyczne nie mogą sobie pozwolić na zbyt daleko idące samoograniczenie, skoro autorytarni rywale „idą na całość”. W przeciwnym razie ryzykują utratę przewagi technologicznej, a w konsekwencji także strategicznej.
Po drugiej stronie sporu stoją ci, którzy podkreślają, że właśnie demokracje powinny wyznaczać standardy odpowiedzialnego użycia nowych technologii, nawet kosztem krótkoterminowej przewagi. Ich zdaniem długofalowa stabilność systemu międzynarodowego zależy od tego, czy uda się uniknąć niekontrolowanej spirali automatyzacji decyzji o użyciu siły, w tym broni masowego rażenia. Przywoływane już eksperymenty z symulacjami kryzysów nuklearnych – mimo metodologicznych ograniczeń – pokazują, że modele językowe częściej niż ludzie wybierają scenariusze eskalacji, ponieważ „czytają” literaturę strategiczną pozbawioną emocjonalnych tabu.
Rozwój firm takich jak Anthropic ma również wymiar globalny. Ich produkty w krótkim czasie pojawiają się na rynkach na całym świecie, w tym w krajach o odmiennych standardach prawnych i politycznych. Dobrym przykładem jest opisane szerzej w tekście „Anthropic w Indiach: co oznacza nowe biuro Claude.ai w Bengaluru dla rynku AI” otwarcie biura firmy w Bengaluru. Taka ekspansja oznacza nie tylko nowe możliwości biznesowe, lecz także rosnącą presję regulacyjną i geopolityczną – decyzje amerykańskich, europejskich czy indyjskich regulatorów oddziałują dziś na globalny ekosystem AI, w tym na to, kto i jak może wykorzystywać te narzędzia w sferze militarnej.
Modele współpracy między firmami technologicznymi a państwem: od „dostawcy” do „partnera z prawem weta”
Tradycyjnie relacja pomiędzy państwem a przemysłem obronnym opierała się na prostym modelu „zamawiający–kontraktor”. Rząd definiował wymagania, finansował projekty i nadzorował ich realizację, a firmy były odpowiedzialne za dostarczenie określonego sprzętu bądź oprogramowania. Granice użycia technologii wyznaczało głównie prawo, decyzje polityczne oraz wewnętrzne procedury wojskowe. Producent miał niewielki wpływ na to, w jaki sposób jego produkt będzie wykorzystywany po przekazaniu go siłom zbrojnym.
Epoka chmury obliczeniowej i sztucznej inteligencji podważa ten paradygmat. Kluczowe zasoby – od danych treningowych, przez modele, po infrastrukturę serwerową – pozostają często pod kontrolą firm prywatnych, działających w skali globalnej. Aktualizacje modeli, poprawki bezpieczeństwa i rozwój funkcji odbywają się po stronie dostawcy, a nie użytkownika końcowego. W efekcie firmy technologiczne stają się nie tylko wykonawcami, ale współtwórcami zasad gry, dysponując realną możliwością ograniczania lub warunkowania pewnych zastosowań.
Można wyróżnić kilka idealnych modeli relacji między firmami technologicznymi a państwem w obszarze militarnej AI.
Pierwszy to model pełnej podległości. Firma udostępnia technologię wojsku w granicach obowiązującego prawa, bez dodatkowych ograniczeń kontraktowych. Kluczowe decyzje o tym, do jakich celów system zostanie użyty, należą do państwa. To podejście odpowiada tradycyjnej logice przemysłu zbrojeniowego i jest preferowane przez część resortów obrony, które nie chcą dzielić się decyzyjnością z podmiotami komercyjnymi.
Drugi to model kontraktowych „bezpieczników”, którego najbardziej znanym przykładem stał się właśnie spór Anthropic–Pentagon. Firma wpisuje do umowy konkretne czerwone linie – na przykład zakaz masowej inwigilacji własnych obywateli czy zakaz wykorzystania modelu do sterowania w pełni autonomiczną bronią ofensywną – i zastrzega sobie prawo do odmowy realizacji określonych zadań. Pentagon uznał takie podejście za nieakceptowalne, ponieważ w jego logice prywatny podmiot zyskuje w praktyce prawo weta wobec legalnych, choć kontrowersyjnych politycznie działań państwa.
Trzeci to model samoregulacji i polityk użycia. Firma definiuje własne zasady odpowiedzialnego wykorzystania technologii i stosuje je wobec wszystkich klientów – zarówno komercyjnych, jak i publicznych. Taki model deklaruje m.in. OpenAI, która mówi o ograniczeniach dotyczących masowej inwigilacji czy broni autonomicznej, ale opiera się przede wszystkim na wewnętrznych politykach, procedurach oceny ryzyka oraz zgodności z prawem, a nie na twardych klauzulach w poszczególnych kontraktach.
Czwarty to model wielostronny, w którym zasady dotyczące wykorzystania militarnej AI powstają w dialogu z udziałem rządów, organizacji międzynarodowych, środowiska naukowego i społeczeństwa obywatelskiego. Mogą one przybierać formę kodeksów branżowych, standardów technicznych, zaleceń organizacji takich jak OECD, a w dalszej perspektywie – porozumień międzyrządowych czy nawet traktatów międzynarodowych ograniczających najbardziej ryzykowne zastosowania, na przykład w pełni autonomiczną broń ofensywną.
Spór Anthropic–Pentagon jest zderzeniem dwóch pierwszych modeli. Pentagon obstaje przy logice pełnej podległości, w której państwo decyduje o granicach użycia technologii w ramach prawa. Anthropic stara się realizować model kontraktowych bezpieczników, widząc siebie jako współodpowiedzialnego strażnika tych granic. Trzeba przy tym pamiętać, że poleganie wyłącznie na aktualnym prawie bywa ryzykowne: regulacje z natury rzeczy spóźniają się względem technologii, a praktyki takie jak hurtowy zakup i analiza danych komercyjnych są dziś w wielu jurysdykcjach legalne, choć budzą poważne kontrowersje z punktu widzenia prywatności.
Debata o modelach współpracy nie ogranicza się do sfery wojskowej. Podobne napięcia pojawiają się w sektorze medycznym, edukacyjnym czy finansowym, gdzie AI wpływa na decyzje o zdrowiu, dostępie do usług czy ocenie zdolności kredytowej. Na naszym portalu analizowaliśmy to szerzej w tekście „Czy ChatGPT szkodzi mózgowi? Co naprawdę mówią badania neurobiologiczne i psychologiczne”, pokazując, że skutki niekontrolowanego wdrażania AI są często złożone i niedoszacowane.
Mechanizmy nadzoru i potencjalne scenariusze nadużyć: od masowej inwigilacji po utratę ludzkiej kontroli
Jednym z głównych obaw Anthropic i wielu organizacji społecznych jest ryzyko masowej inwigilacji z wykorzystaniem AI. Chodzi nie tylko o pojedyncze narzędzia monitoringu, ale o zautomatyzowane systemy potrafiące łączyć dane z kamer miejskich, systemów rozpoznawania twarzy, mediów społecznościowych, rejestrów państwowych i komercyjnych baz danych. Tego typu systemy pozwalają profilować zachowania obywateli, przewidywać ich aktywność, oceniać „ryzyko” popełnienia przestępstwa czy nawet skłonność do protestów politycznych.
Z formalnego punktu widzenia takie rozwiązania mogą być „zgodne z prawem”, jeśli przepisy dopuszczają szerokie gromadzenie danych, a nadzór sądowy lub parlamentarny jest ograniczony. Z perspektywy wartości demokratycznych oznaczają jednak przesunięcie granicy między państwem a obywatelem: normalizację stałej obserwacji, efekt mrożący wobec wolności zgromadzeń i wypowiedzi, a w skrajnych przypadkach – narzędzie selektywnej represji wobec mniejszości etnicznych czy politycznej opozycji.
Drugim kluczowym obszarem ryzyka jest autonomiczna broń. W literaturze i dokumentach eksperckich stosuje się często trzy pojęcia opisujące stopień ludzkiej kontroli nad systemem. W modelu „człowiek w pętli” (human in the loop) to człowiek podejmuje ostateczną decyzję o użyciu siły, zatwierdzając proponowane przez system cele. W modelu „człowiek na pętli” (human on the loop) człowiek nadzoruje działanie systemu i może interweniować, ale to algorytm sam identyfikuje cele i inicjuje ataki. Wreszcie w pełni autonomiczne systemy podejmują decyzje o użyciu broni bez realnego udziału człowieka, który co najwyżej ustala ogólne parametry misji.
Problem polega na tym, że w warunkach wysokiej dynamiki konfliktu i zalewu danych nawet model „człowiek w pętli” może w praktyce oznaczać jedynie potwierdzanie decyzji maszyny bez faktycznej możliwości weryfikacji. Operator otrzymuje propozycje celów i ma sekundy na podjęcie decyzji – presja czasu, hierarchia służbowa i zaufanie do systemu sprzyjają „przyklepywaniu” rekomendacji. W takim środowisku łatwo o utratę realnej ludzkiej kontroli, nawet jeśli formalnie jest ona zachowana.
Ryzyka nie ograniczają się do samego pola walki. Można wskazać kilka scenariuszy nadużyć lub niezamierzonych konsekwencji militarnej AI. Pierwszy to wykorzystanie modeli generatywnych do optymalizacji kampanii dezinformacyjnych w czasie konfliktu – tworzenia masowych, spersonalizowanych przekazów destabilizujących społeczeństwo przeciwnika, podważających zaufanie do instytucji czy zwiększających polaryzację polityczną. Drugi to zastosowanie systemów rozpoznawania twarzy i analizy zachowań do śledzenia mniejszości etnicznych lub grup opozycyjnych, co w autorytarnych państwach może prowadzić do brutalnych represji.
Trzeci scenariusz dotyczy nadmiernej automatyzacji decyzji o użyciu siły w systemach obrony przeciwrakietowej lub przeciwdronowej. Jeśli algorytmy będą samodzielnie klasyfikować obiekty jako zagrożenia i inicjować ich zestrzelenie, rośnie ryzyko tragicznych pomyłek – szczególnie w środowiskach gęsto zaludnionych. Czwarty scenariusz to przeniesienie norm i praktyk wypracowanych w czasie wojny do świata cywilnego, na przykład rosnąca akceptacja dla stałego monitoringu przestrzeni publicznej, wykorzystywania scoringu behawioralnego w administracji czy w firmach prywatnych.
Jak ograniczać te ryzyka? W ostatnich latach rozwijane są różne mechanizmy nadzoru nad systemami AI. W wielu firmach powstają wewnętrzne zespoły etyczne i komitety ds. odpowiedzialnego AI, które opiniują wysokiego ryzyka wdrożenia. Prowadzi się audyty algorytmów mające wykrywać uprzedzenia i luki bezpieczeństwa, choć ich skuteczność jest ograniczona, gdy kod i dane są objęte tajemnicą handlową lub wojskową. Coraz częściej mówi się o potrzebie transparentnych rejestrów zastosowań AI w sektorze publicznym, w tym w obronności, które ujawniałyby przynajmniej kategorie użycia technologii.
Istotną rolę odgrywa nadzór parlamentarny i sądowy – specjalne komisje mogą kontrolować zamówienia publiczne w obszarze AI, a sądy oceniać zgodność praktyk z konstytucją i prawem międzynarodowym. Na poziomie globalnym trwają prace w ramach ONZ nad normami dotyczącymi broni autonomicznej, choć różnice interesów między państwami utrudniają szybkie porozumienie.
Wszystkie te mechanizmy mają jednak poważne ograniczenia: asymetrię informacji między rządami, firmami a społeczeństwem, tajemnicę wojskową, a także presję wyścigu technologicznego. W praktyce mamy do czynienia z rozbudowanymi, „czarnymi skrzynkami” – systemami tak złożonymi, że nawet ich twórcy nie są w stanie do końca przewidzieć wszystkich zachowań. Problem ten znany jest także z cywilnego IT. Dobrym przykładem jest dyskusja o projektowaniu złożonych, wielojęzycznych aplikacji i potrzebie przejrzystej architektury, którą opisuje tekst „How to add full Internationalization support to NodeJS”. Podobnie jak w przypadku międzynarodowych systemów informatycznych, militarna AI wymaga standardów, dokumentacji i audytowalności – tylko tu stawką są nie błędy w interfejsie, lecz potencjalnie życie tysięcy ludzi.
Lekcje dla decydentów publicznych, NGO i biznesu: jakie zabezpieczenia są realne tu i teraz
Dla decydentów publicznych spór Anthropic–Pentagon jest ostrzeżeniem, że brak jasnych ram prawnych i kontraktowych prowadzi do konfliktów eskalowanych logiką „wszystko albo nic”. Z perspektywy państwa jednym z kluczowych kierunków działania powinno być wprowadzenie obowiązku kontraktowych „bezpieczników” dla zastosowań wysokiego ryzyka – przede wszystkim w obszarze masowej inwigilacji i broni autonomicznej. Zamiast pozostawiać te kwestie wyłącznie uznaniu firm lub resortów, warto zdefiniować minimalne standardy, których należy przestrzegać w każdej umowie dotyczącej AI.
Istotne jest także doprecyzowanie w prawie pojęcia „znaczącej ludzkiej kontroli” nad systemami broni. Bez tego łatwo o nadużycia, w których formalna obecność człowieka w procedurze decyzyjnej maskuje faktyczną automatyzację. Wzmocnienia wymaga nadzór parlamentarny nad zamówieniami i wdrożeniami w obszarze AI – w tym obowiązek publikowania przynajmniej ogólnych informacji o kategoriach zastosowań i zastosowanych zabezpieczeniach. Tak rozumiana „przejrzystość minimalna” może znacząco zwiększyć zaufanie społeczne, nie odsłaniając jednocześnie wrażliwych szczegółów operacyjnych.
Dla organizacji pozarządowych i ekspertów ds. bezpieczeństwa militarna AI staje się nowym polem działania porównywalnym z debatą o broni nuklearnej czy dronach bojowych w poprzednich dekadach. Ich wpływ na politykę może wyrażać się poprzez niezależne raporty, monitorowanie przetargów i kontraktów, udział w konsultacjach publicznych czy edukację opinii publicznej. Coraz większą rolę odgrywają międzynarodowe koalicje organizacji zajmujących się prawami człowieka i prawem humanitarnym, które wskazują, że kwestia broni autonomicznej nie jest wyłącznie technicznym problemem wojskowych, lecz fundamentalnym pytaniem o to, komu – lub czemu – powierzamy decyzje o życiu i śmierci.
Ważne, aby organizacje społeczne nie ograniczały się do moralnych apeli. W debacie publicznej coraz większe znaczenie mają twarde argumenty techniczne i prawne: analiza architektury systemów, ocena ryzyka błędnej klasyfikacji celów, odwołania do istniejących traktatów międzynarodowych i orzecznictwa. Tylko łącząc wrażliwość etyczną z ekspercką wiedzą można skutecznie oddziaływać na procesy legislacyjne i decyzje rządów.
Firmy technologiczne, w tym dostawcy generatywnej AI, stoją natomiast przed dylematem, jak łączyć odpowiedzialność społeczną z presją konkurencji i oczekiwaniami inwestorów. Przypadek Anthropic pokazuje, że jasne czerwone linie i polityki użycia są konieczne, ale niewystarczające, jeśli nie są osadzone w szerszych standardach branżowych i trwałym dialogu z państwami. Branża AI potrzebuje wspólnych kodeksów postępowania dotyczących militarnego wykorzystania technologii – tak, aby pojedyncza firma nie ponosiła sama ciężaru konfrontacji z rządem, a jednocześnie by standardy te były na tyle konkretne, by miały realną moc wiążącą.
Dla biznesu znaczenie ma także inwestowanie w narzędzia umożliwiające monitorowanie zastosowań modeli po stronie klienta – w granicach prawa i z poszanowaniem prywatności. Chodzi nie o pełną kontrolę nad każdym ruchem użytkownika, ale o możliwość wykrywania nadużyć, audytu logów i reagowania na sygnały, że system jest wykorzystywany w sposób sprzeczny z przyjętą polityką. W globalnej perspektywie firmy muszą liczyć się z tym, że decyzje regulatorów w USA czy Unii Europejskiej będą wyznaczać de facto standardy obowiązujące także w innych regionach, o czym szerzej pisaliśmy w tekście o ekspansji Anthropic w Indiach.
Czy spór Anthropic–Pentagon to punkt zwrotny? Wnioski dla przyszłości kontroli nad sztuczną inteligencją
W centrum sporu Anthropic–Pentagon pozostaje pytanie o to, kto wyznacza granice użycia sztucznej inteligencji w obszarze bezpieczeństwa narodowego. Państwo, powołujące się na demokratyczny mandat i obowiązujące prawo? Firmy technologiczne, które tworzą i utrzymują kluczową infrastrukturę cyfrową? A może szerzej rozumiana wspólnota międzynarodowa i społeczeństwo obywatelskie, które coraz głośniej domagają się ograniczeń dla najbardziej ryzykownych zastosowań?
Konflikt ten sam w sobie nie rozstrzyga tej kwestii, ale obnaża napięcie, które będzie w kolejnych latach narastać. Z jednej strony mamy jasne czerwone linie postawione przez Anthropic: zakaz masowej inwigilacji obywateli USA i brak zgody na w pełni autonomiczną broń ofensywną. Z drugiej – twardą reakcję Pentagonu, wzmocnioną geopolityczną presją wynikającą z rosnących możliwości Chin, Rosji i innych państw w obszarze militarnej AI. W tle pozostają obawy związane z normalizacją masowej inwigilacji i automatyzacją decyzji o użyciu siły, a także różne modele współpracy między firmami a rządami i wciąż niedoskonałe mechanizmy nadzoru.
Przyszłość kontroli nad sztuczną inteligencją w sferze militarnej można nakreślić w kilku możliwych scenariuszach. Pierwszy to „normalizacja” – kolejne firmy, ucząc się na przykładzie Anthropic, rezygnują z twardych zapisów kontraktowych i godzą się na pełną logikę militarnej AI, ograniczając się do miękkich deklaracji i wewnętrznych polityk. Granice wyznacza wówczas przede wszystkim prawo i bieżąca praktyka resortów obrony.
Drugi scenariusz to „konflikt permanentny”. W miarę jak kolejne spółki technologiczne próbują stawiać własne czerwone linie, rosłaby liczba sporów prawnych i politycznych wokół dużych kontraktów. Rządy odpowiadałyby retorsjami regulacyjnymi, a presja na Big Tech – zarówno ze strony państw, jak i opinii publicznej – stale by rosła. Taki stan niepewności byłby kosztowny dla wszystkich stron.
Trzeci scenariusz to „nowa architektura zasad”: wypracowanie twardszych krajowych i międzynarodowych norm ograniczających najbardziej ryzykowne zastosowania militarnej AI – w szczególności w obszarze broni autonomicznej i masowego nadzoru – przy jednoczesnym utrzymaniu przewagi technologicznej państw demokratycznych. Wymagałoby to odwagi politycznej, zdolności do kompromisu oraz intensywnej współpracy między rządami, biznesem i społeczeństwem obywatelskim.
To, który z tych scenariuszy okaże się dominujący, zależeć będzie od decyzji podejmowanych już dziś – w rządach, zarządach firm technologicznych, organizacjach pozarządowych, a także w mediach i środowiskach eksperckich. Warto przy tym pamiętać, że militarna AI nie jest odizolowaną, tajemniczą domeną, lecz przedłużeniem szerszych sporów o to, kto kontroluje technologię i jak mierzymy ryzyko. Tak jak w debatach dotyczących wpływu narzędzi AI na zdrowie psychiczne czy procesy poznawcze, opisywanych w artykule „Czy ChatGPT szkodzi mózgowi?”, chodzi o odpowiedź na pytanie, jaki świat chcemy współtworzyć za pomocą narzędzi, które sami budujemy.
Dla czytelników oznacza to konieczność świadomego śledzenia nie tylko spektakularnych doniesień o nowych modelach czy aplikacjach, ale także mniej widowiskowych debat o standardach, regulacjach i odpowiedzialności. Granice kontroli nad sztuczną inteligencją – w armii, medycynie, edukacji czy codziennych usługach cyfrowych – nie zostaną nam narzucone z zewnątrz. Będą rezultatem wielu drobnych decyzji, presji społecznej i jakości publicznej dyskusji. Spór Anthropic–Pentagon jest jednym z pierwszych głośnych testów tej nowej epoki. Nie będzie ostatnim.

