Zakaz Anthropic a atak na Iran z użyciem jej AI: nowy chaos w polityce obronnej USA

Zakaz Anthropic a atak na Iran z użyciem jej AI: nowy chaos w polityce obronnej USA

Jak doszło do paradoksu: zakaz Anthropic a atak na Iran z użyciem tej samej AI

W lutym 2026 r. prezydent Stanów Zjednoczonych Donald Trump ogłosił na platformie Truth Social decyzję, która natychmiast odbiła się szerokim echem w środowisku technologicznym i eksperckim zajmującym się bezpieczeństwem. Nakazał wszystkim agencjom federalnym USA zaprzestanie używania modeli sztucznej inteligencji firmy Anthropic, w tym popularnej rodziny Claude. Powodem miał być konflikt między regulaminem usług spółki a nadrzędnością konstytucji USA oraz priorytetem bezpieczeństwa narodowego.

Trump argumentował, że Anthropic próbowała ograniczać dopuszczalne scenariusze użycia swoich modeli, w tym w działaniach ofensywnych, co w jego ocenie oznaczało próbę narzucenia wojsku i administracji federalnej prywatnych zasad etycznych ponad prawo państwowe. W konsekwencji prezydent zapowiedział nie tylko całkowite wycofanie technologii Anthropic z administracji, lecz także możliwość zastosowania surowych konsekwencji cywilnych i karnych wobec spółki, jeśli nie będzie współpracować przy procesie migracji. Agencjom federalnym wyznaczono półroczny okres przejściowy, ze szczególnym naciskiem na struktury wojskowe i systemy operacyjne Pentagonu.

Paradoks ujawnił się kilka godzin po ogłoszeniu zakazu. Według relacji „The Wall Street Journal” i komentatorów branżowych, amerykańskie wojska przeprowadziły wówczas atak lotniczy na cele w Iranie, a w łańcuchu analityczno-decyzyjnym tej operacji nadal wykorzystywano narzędzia AI Anthropic. Chodziło nie tyle o pojedynczy chatbot, ile o zintegrowane moduły analityczne wpięte w systemy rozpoznania, przetwarzania danych wywiadowczych oraz wsparcia dowodzenia.

Dla obserwatorów nie było to całkowite zaskoczenie. Już wcześniej media branżowe opisywały wykorzystanie modeli Anthropic w innych działaniach zbrojnych USA, m.in. przy operacji przeciwko reżimowi Nicolása Maduro w Wenezueli. Informacje te wskazują, że modele klasy Claude stały się jednym z elementów infrastruktury obronnej – od analiz zdjęć satelitarnych, przez wsparcie planowania, po asystentów analityków.

Powstała sytuacja nie jest więc jedynie incydentem komunikacyjnym. Ilustruje systemowy rozdźwięk między ostrą, polityczną deklaracją „zakazu” konkretnego dostawcy a realiami świata defense tech, w którym systemów tego typu nie da się z dnia na dzień odłączyć bez ryzyka dla bieżących operacji. Problem ten ma konsekwencje nie tylko w wymiarze wizerunkowym, ale przede wszystkim prawnym, operacyjnym i rynkowym – zarówno dla Pentagonu, jak i dla całego ekosystemu dostawców sztucznej inteligencji.

Polityka kontra rzeczywistość operacyjna: jak działają decyzje prezydenckie w systemie federalnym

Aby zrozumieć, skąd bierze się opisany paradoks, trzeba przyjrzeć się mechanizmowi podejmowania i wdrażania decyzji prezydenckich w Stanach Zjednoczonych. Prezydent może korzystać z szeregu instrumentów – od formalnych „executive orders”, przez dyrektywy dla poszczególnych agencji, aż po mniej sformalizowane, ale politycznie wiążące komunikaty publiczne. Niezależnie od formy, przekształcenie takiego komunikatu w realną zmianę infrastruktury i procedur w aparacie federalnym jest procesem złożonym i czasochłonnym.

W obszarze obronności i bezpieczeństwa problem jest szczególnie widoczny. Systemy IT i systemy dowodzenia w wojsku działają na sieciach sklasyfikowanych, są ściśle zintegrowane z sensorami (radary, satelity, drony), a ich zmiana wymaga certyfikacji, testów bezpieczeństwa i budowy redundancji. W praktyce między ogłoszeniem zakazu a faktycznym wyłączeniem określonego komponentu może minąć wiele miesięcy – a w najbardziej newralgicznych obszarach nawet lata.

Zastąpienie jednego dostawcy AI innym nie polega na „przełączeniu przycisku”. Modele muszą zostać wdrożone, dostrojone do danych specyficznych dla wojska, przetestowane pod kątem cyberbezpieczeństwa i zgodności z istniejącą architekturą. Niezbędne jest przeszkolenie personelu, aktualizacja procedur operacyjnych, audyt wpływu na łańcuch dowodzenia i reguły użycia siły (rules of engagement). Każda z tych faz generuje opóźnienia, których nie da się zredukować do godzin czy dni.

W doniesieniach medialnych pojawiają się szacunki, że pełne „wyciągnięcie” Claude i innych rozwiązań Anthropic ze struktur wojskowych może potrwać miesiące. W tym kontekście fakt, że w pierwszych godzinach po ogłoszeniu zakazu system nadal wspierał operacje, przestaje dziwić, choć pozostaje politycznie kłopotliwy. Formalne ogłoszenie zakazu i rzeczywista migracja to dwie różne rzeczywistości czasowe.

Ta luka czasowa tworzy przestrzeń dla paradoksów. Z jednej strony prezydent buduje twardy przekaz dla opinii publicznej, sygnalizując bezkompromisowość wobec firm uznanych za „nieposłuszne” wobec interesów bezpieczeństwa narodowego. Z drugiej strony aparat państwowy, aby utrzymać ciągłość operacyjną, wciąż korzysta z „zakazanej” technologii, de facto odraczając praktyczne skutki deklaracji politycznej. To napięcie będzie się nasilać wraz z postępującą integracją AI z krytyczną infrastrukturą obronną.

Strategiczne znaczenie AI w wojsku: dlaczego Pentagon nie może „po prostu wyłączyć” Anthropic

Współczesne armie coraz szerzej wykorzystują sztuczną inteligencję. W praktyce obejmuje to kilka kluczowych obszarów. Po pierwsze, analiza danych wywiadowczych: modele AI przetwarzają ogromne ilości obrazów satelitarnych, nagrań z dronów i innych sensorów, wychwytując wzorce trudne do zauważenia przez człowieka. Po drugie, symulacje scenariuszy i wsparcie planowania misji – od analizy ryzyka po optymalizację tras przelotu czy rozmieszczenia zasobów. Po trzecie, logistyka: przewidywanie zapotrzebowania, planowanie dostaw, utrzymanie sprzętu. Wreszcie, asystenci sztabowi, działający jako „mentalni co-pilotowie” analityków i dowódców.

Modele takie jak Claude firmy Anthropic nie funkcjonują w tych środowiskach jako proste chatboty, lecz jako głęboko zintegrowane komponenty zasilające łańcuch dowodzenia. Mogą wspierać analityka wywiadu w przygotowaniu raportu, podpowiadać alternatywne scenariusze działań, agregować dane z wielu źródeł w jednolity obraz sytuacji. W niektórych jednostkach stanowią już standardowe narzędzie pracy, od którego zależy szybkość i jakość decyzji operacyjnych.

Z tej perspektywy nagłe odcięcie takiej technologii w trakcie kryzysu – na przykład w warunkach gwałtownej eskalacji napięć z Iranem – mogłoby zostać ocenione jako realne zagrożenie dla bezpieczeństwa narodowego. Oznaczałoby gorszą jakość rozpoznania, wolniejsze decyzje, zwiększone ryzyko błędu w ocenie zamiarów przeciwnika czy lokalizacji celów. Dla wojska decyzja o „wyłączeniu” systemu AI bez pełnoprawnego, przetestowanego następcy jest decyzją o świadomym pogorszeniu własnych zdolności operacyjnych.

Dlatego w praktyce, nawet przy ostrej retoryce politycznej, zwykle stosuje się okresy przejściowe, w trakcie których „zakazany” system funkcjonuje równolegle z nowymi rozwiązaniami. Według dostępnych informacji Pentagon podpisał już porozumienia z innymi dostawcami, w tym z OpenAI oraz xAI, które mają stopniowo przejmować rolę Anthropic w wojskowych sieciach. W okresie migracji modele Anthropic mogą jednak nadal pełnić istotną funkcję, choć oficjalnie są w procesie wygaszania.

W tle toczy się szersza gra geopolityczna i rynkowa. Wybór konkretnych dostawców AI przez Pentagon ma znaczenie nie tylko techniczne, ale i strategiczne. Dobrze ilustruje to szerszy kontekst globalnego wyścigu po sztuczną inteligencję, w którym firmy balansują między państwami rywalizującymi i współpracującymi jednocześnie. Przykładem jest opisywana szerzej w artykule transakcja przejęcia chińskiego startupu Manus AI przez Meta, interpretowana jako rzadki „most” inwestycyjny między USA a Chinami w obszarze AI. Decyzje Pentagonu o tym, komu powierzyć krytyczne systemy obronne, są więc elementem szerszej układanki geopolitycznej.

Ryzyko prawne i instytucjonalne: co oznacza użycie zakazanej AI dla Pentagonu

Publiczny zakaz korzystania z usług konkretnego dostawcy tworzy nowe ramy odpowiedzialności dla wszystkich zaangażowanych stron. Po pierwsze, dla samej firmy technologicznej, której sygnalizuje się ryzyko pozwów cywilnych czy dochodzeń karnych, jeśli będzie utrudniała proces migracji lub świadomie omijała ustalenia z rządem. Po drugie, dla urzędników i wojskowych odpowiedzialnych za wdrożenie zakazu w praktyce.

Można wyróżnić kilka scenariuszy, w jakich użycie „zakazanej” AI staje się przedmiotem sporów prawnych i politycznych.

  • Scenariusz formalnego odstępstwa – rząd dopuszcza wyjątki dla operacji „mission critical”, w których wyłączenie systemu mogłoby bezpośrednio zagrażać bezpieczeństwu żołnierzy lub sojuszników. Użytkowanie systemu trwa, ale jest objęte szczegółową dokumentacją i zgodami na wysokim szczeblu.
  • Scenariusz naruszenia – jednostki wojskowe korzystają z systemu mimo braku zgody, z powodu przyzwyczajenia, braku alternatywy lub błędnej interpretacji przepisów. W takim przypadku odpowiedzialność może sięgać od poziomu dowódców operacyjnych po urzędników odpowiedzialnych za nadzór.
  • Scenariusz „szarej strefy” – system formalnie jest w procesie wygaszania, ale w praktyce pozostaje kluczowym elementem łańcucha decyzyjnego. Decydenci tłumaczą się koniecznością zapewnienia ciągłości działań, a granica między legalnym wyjątkiem a faktycznym ignorowaniem wytycznych staje się rozmyta.

W każdym z tych przypadków pojawiają się trudne pytania, które mogą stanąć przed komisjami Kongresu. Czy konkretne operacje – takie jak atak na Iran – przeprowadzono z użyciem narzędzi, które miały zostać wycofane? Czy zachowano właściwy „human oversight”, czyli nadzór człowieka nad rekomendacjami generowanymi przez AI? Czy regulamin Anthropic, zawierający ograniczenia dotyczące użycia modeli w ofensywnych operacjach, nie został świadomie obchodzony?

Istotne są tu także pojęcia „chain of command” (łańcuch dowodzenia) i „rules of engagement” (reguły użycia siły). Jeśli model AI dostarcza analiz stanowiących podstawę do decyzji bojowych, kluczowe staje się ustalenie, kto faktycznie podjął decyzję: człowiek-dowódca czy de facto automat, którego rekomendacji nikt nie kwestionował. W razie kontrowersji – np. ofiar cywilnych – pytanie o rolę AI w łańcuchu dowodzenia staje się przedmiotem dochodzeń i potencjalnych roszczeń.

Na tym tle mogą rodzić się spory kompetencyjne między Białym Domem, Departamentem Obrony a samą firmą technologiczną. Pentagon może argumentować, że działał w granicach koniecznych wyjątków operacyjnych, firma – że jej systemy zostały użyte niezgodnie z regulaminem, a Biały Dom – że zakaz miał charakter jednoznaczny. Z punktu widzenia rynku technologicznego to sygnał, że kwestie kontraktowe i regulacyjne wokół AI w obszarze obronności nabierają kluczowego znaczenia.

Ryzyko prawne dotyczy także bezpieczeństwa technicznego modeli. Coraz większą uwagę zwraca się na zagrożenia takie jak „prompt injection” czy exfiltracja danych z systemów sklasyfikowanych. Niektórzy dostawcy odpowiadają na to specjalnymi trybami bezpieczeństwa – przykładem jest opisywany szczegółowo w tekście „Lockdown Mode” w rozwiązaniach OpenAI, który ma ograniczyć ryzyko wycieku danych. Choć takie mechanizmy poprawiają bezpieczeństwo techniczne, nie rozwiązują zasadniczego dylematu: jakie scenariusze użycia modeli językowych są w ogóle dopuszczalne z prawnego i etycznego punktu widzenia.

Wojna dostawców AI: jak spór Trump–Anthropic zmienia układ sił na rynku

Decyzje polityczne dotyczące jednego dostawcy AI szybko przekładają się na całą strukturę rynku. „Wyrzucenie” Anthropic z administracji federalnej – jeśli zostanie w pełni doprowadzone do skutku – oznacza realokację bardzo istotnych budżetów i wpływów w stronę innych graczy. W doniesieniach pojawiają się przede wszystkim OpenAI oraz xAI jako nowi partnerzy dla Pentagonu i innych agencji rządowych.

Kontrakty z rządem USA są czymś więcej niż tylko źródłem przychodów. Dla dostawców pełnią funkcję certyfikatu zaufania wobec innych klientów: międzynarodowych organizacji, jak NATO, sojuszników na Bliskim Wschodzie, ale też dużych korporacji. Jeżeli dany model jest „sprawdzony” i stosowany w najbardziej wymagającym środowisku – amerykańskim sektorze obronnym – staje się to argumentem sprzedażowym na innych rynkach.

Spór na linii Trump–Anthropic może zostać wykorzystany przez konkurencyjne firmy do budowania własnej narracji. Już dziś eksperci przewidują, że w materiałach marketingowych pojawią się zapewnienia w rodzaju: „nasza AI jest w pełni zgodna z priorytetami bezpieczeństwa narodowego USA” lub „nasze regulaminy nie ograniczają uprawnień rządu w zakresie obronności”. Jednocześnie w dłuższym horyzoncie czasowym spór ten może skłaniać dostawców do większej asertywności wobec państw w kwestiach etyki użycia AI w wojnie.

Wybory technologiczne Pentagonu wpisują się w szerszy wyścig o dominację w obszarze AI, w którym kluczową rolę odgrywa relacja USA–Chiny. Wspomniana już transakcja przejęcia Manus AI przez Meta pokazuje, że firmy z Doliny Krzemowej wciąż szukają sposobów współpracy z partnerami z Chin, mimo rosnącej presji geopolitycznej. Szczegółowo analizujemy to w tekście poświęconym rzadkiemu „transakcyjnemu mostowi” między USA a Chinami w wyścigu AI. Z perspektywy dostawców decyzje Waszyngtonu mogą więc przyspieszyć rozwój rozwiązań „narodowych” i ograniczyć pole do eksperymentów transgranicznych.

Co istotne, konflikty polityczne nie hamują ekspansji całej branży. Raczej przesuwają akcenty i tworzą nowe nisze. Wzrasta zapotrzebowanie na kompetencje z pogranicza technologii, prawa i obronności: specjalistów od zgodności regulacyjnej, architektów systemów dla sektora publicznego, ekspertów ds. „AI governance”. Temu trendowi poświęcony jest szczegółowy przewodnik kariery w artykule „Kariera w AI do 2030 roku”, gdzie pokazano, jak ekspansja największych graczy – OpenAI, Anthropic i Microsoft – otwiera nowe ścieżki zawodowe, również w obszarze defense tech.

Etyka, regulacje i „war clauses” w kontraktach AI: czego uczą nas wydarzenia wokół ataku na Iran

Konflikt między regulaminem usług Anthropic a oczekiwaniami Pentagonu pokazuje szerszy problem – dostawcy sztucznej inteligencji coraz częściej wpisują do swoich zasad ograniczenia dotyczące użycia technologii do działań wojennych, nadzoru masowego czy proliferacji broni. Z drugiej strony państwa, zwłaszcza mocarstwa wojskowe, oczekują pełnej swobody w kształtowaniu doktryny użycia siły i niechętnie godzą się na ingerencję prywatnych firm w tę sferę.

W rezultacie w kontraktach na dostarczanie systemów AI do sektora obronnego coraz częściej pojawiają się specyficzne zapisy – swoiste „war clauses”. Mogą one obejmować zakaz użycia modeli w operacjach ofensywnych bez dodatkowej zgody, obowiązek informowania dostawcy o określonych scenariuszach ich użycia, wymagania dotyczące audytu i logowania wszystkich interakcji, czy wreszcie prawo firmy do ograniczenia funkcjonalności modeli w razie naruszenia regulaminu.

Możliwe są co najmniej trzy kierunki ewolucji tego obszaru:

  • Całkowite wycofanie się części dostawców z rynku defense. Firmy, które stawiają bardzo wysoko poprzeczkę etyczną, mogą uznać, że nie są w stanie pogodzić swoich zasad z oczekiwaniami państw i skupić się na sektorze cywilnym.
  • Pełna akceptacja prymatu państwa w kontekście wojskowym. W tym modelu regulaminy mają znaczenie drugorzędne, a w razie konfliktu z przepisami obronnymi czy decyzjami władz – ustępują. To scenariusz preferowany przez część decydentów politycznych, ale budzący poważne wątpliwości organizacji praw człowieka.
  • Powstanie wyspecjalizowanej kategorii dostawców „military-grade AI”, którzy od początku projektują swoje systemy z myślą o wojnie i akceptują wynikające z tego konsekwencje prawne oraz etyczne, oferując jednocześnie wysoki poziom transparentności i audytowalności.

Wydarzenia wokół ataku na Iran mogą stać się impulsem do doprecyzowania regulacji zarówno w USA, jak i w Unii Europejskiej. Ustawodawcy coraz częściej będą musieli odpowiadać na pytania: jaka jest rola prywatnych firm technologicznych w konfliktach zbrojnych? Czy i w jakim zakresie mogą one ograniczać scenariusze użycia swoich modeli przez państwa? Kto ponosi odpowiedzialność za szkody wyrządzone przez decyzje, w których kluczową rolę odegrały rekomendacje AI?

Podobne dylematy dotyczą bezpieczeństwa technicznego modeli. Rozwiązania w rodzaju wspomnianego „lockdown mode” pokazują, że możliwe jest ograniczenie części zagrożeń, takich jak exfiltracja danych, ale nie usuwają one fundamentalnych pytań o to, do czego w ogóle wolno używać modeli językowych. Bez jasnych ram prawnych i etycznych nawet najbardziej zaawansowane mechanizmy bezpieczeństwa nie rozwiążą problemu odpowiedzialności za skutki użycia AI na polu walki.

Co dalej z AI w wojsku USA: scenariusze dla Pentagonu, Anthropic i konkurentów

Paradoks wykorzystania systemów Anthropic w ataku na Iran mimo świeżo ogłoszonego zakazu jest sygnałem, że wchodzimy w epokę coraz częstszych napięć między technologią, polityką i prawem. W perspektywie najbliższych miesięcy i lat można wskazać kilka realistycznych scenariuszy rozwoju sytuacji.

Pierwszy scenariusz to twarde rozstanie. W tym wariancie administracja doprowadza do pełnego wycofania Anthropic z systemów federalnych, łącznie z infrastrukturą wojskową, a głównymi beneficjentami stają się OpenAI i xAI, które konsolidują pozycję kluczowych dostawców dla Pentagonu. Z punktu widzenia bezpieczeństwa narodowego USA oznaczałoby to uproszczenie łańcucha dostaw, ale także zwiększenie uzależnienia od ograniczonej grupy dostawców. Dla rynku pracy w AI byłby to impuls do poszukiwania kompetencji związanych z integracją konkretnych, dominujących platform oraz budową rozwiązań komplementarnych – co szerzej opisujemy w tekście o karierze w AI do 2030 roku.

Drugi scenariusz zakłada miękkie lądowanie. Formalnie współpraca rządu z Anthropic zostaje ograniczona, ale w praktyce spółka pozostaje podwykonawcą lub partnerem technologicznym w wybranych, mniej wrażliwych obszarach – na przykład narzędzi analitycznych o charakterze niebojowym. Jednocześnie zaostrzane są zapisy regulaminów i wymagania dotyczące nadzoru, logowania i audytu. Taki model pozwala zminimalizować ryzyko operacyjne, zachować dostęp do innowacji, a jednocześnie budować narrację o „ukróceniu nadużyć” przez dostawcę. W globalnej debacie o regulacji AI byłby to przykład próby wypracowania kompromisu między suwerennością państwa a autonomią firm technologicznych.

Trzeci scenariusz to przyspieszony rozwój nowej generacji defense tech. Pod wpływem sporów polityczno-prawnych rząd uruchamia programy budowy „suwerennej” AI dla wojska – rozwijanej w ramach krajowych, często częściowo upaństwowionych podmiotów, z ograniczonym udziałem globalnych gigantów. Pojawia się fala wyspecjalizowanych startupów koncentrujących się wyłącznie na rozwiązaniach „military-grade”, a kontrakty dla nich stają się ważnym elementem polityki przemysłowej.

Dla bezpieczeństwa narodowego taki model oznacza większą kontrolę nad kluczową technologią, ale także ryzyko mniejszej konkurencji i potencjalnie wolniejszego tempa innowacji. Na rynku pracy tworzy to nowe nisze dla inżynierów, prawników i menedżerów na styku AI, obronności i regulacji. W wymiarze globalnym sprzyja fragmentacji ekosystemu sztucznej inteligencji na bloki powiązane z określonymi mocarstwami.

Niezależnie od tego, który z tych scenariuszy okaże się dominujący, jedno wydaje się pewne: paradoks „zakazanej AI użytej w ataku” nie jest jednorazowym wypadkiem przy pracy. To zapowiedź epoki, w której decyzje technologiczne, polityczne i prawne będą coraz częściej wchodzić ze sobą w konflikt. Kluczowe stanie się tworzenie przejrzystych mechanizmów odpowiedzialności za użycie AI w działaniach zbrojnych – od jasno zdefiniowanych ról człowieka i maszyny w łańcuchu dowodzenia, po transparentne „war clauses” w kontraktach z dostawcami. Bez tego napięcia podobne do sporu wokół Anthropic, ataku na Iran i polityki obronnej USA będą się powtarzać, podważając zaufanie do zarówno państw, jak i technologii, które mają je chronić.


Leave a Reply

Your email address will not be published. Required fields are marked *