Od medialnego hasła „AI dowodzi wojną” do rzeczywistości operacji w Iranie
Nagłówki typu „Claude od Anthropic ma dowodzić na wojnie z Iranem” działają na wyobraźnię. Sugestia, że duży model językowy przejmuje rolę generała, znakomicie się klika, ale bardzo słabo opisuje rzeczywistość współczesnych operacji wojskowych. Zamiast jednego „cyfrowego dowódcy” mamy złożony ekosystem systemów analitycznych, platform zarządzania danymi oraz ludzi, którzy na końcu biorą odpowiedzialność za użycie siły.
Według doniesień mediów opartych m.in. na relacjach cytujących analizy „Washington Post” i „Wall Street Journal”, w pierwszych 24 godzinach kampanii przeciwko Iranowi amerykańsko‑izraelskie siły uderzyły w około tysiąc celów, korzystając z połączonego działania platformy Maven Smart System i wbudowanych w nią modeli Claude od Anthropic. AI pomagała syntetyzować dane z satelitów, dronów, wywiadu sygnałowego i raportów terenowych, proponować listy celów wraz z priorytetami, a także przyspieszać proces planowania z tygodni do godzin.(washingtonpost.com)
Celem tego artykułu nie jest jednak podsycanie sensacji, lecz rzeczowa analiza: jak wojsko faktycznie wykorzystuje duże modele językowe, jakie rodzi to ryzyka i kontrowersje, jaką postawę przyjmuje Anthropic i co spór z Pentagonem oznacza dla przyszłości militarnej sztucznej inteligencji. Wcześniej na tym blogu opisywaliśmy biznesowe możliwości modeli Claude w tekście o długim kontekście i obsłudze złożonych systemów. Te same zdolności „długiego myślenia” i pracy na rozbudowanych przepływach zadań, które są tak atrakcyjne dla biznesu, okazują się niezwykle kuszące także dla armii planującej operacje w czasie rzeczywistym.
Analiza będzie przebiegać od geopolitycznego tła, przez techniczne i organizacyjne aspekty użycia AI w wojsku, konflikt Pentagon–Anthropic i reakcje opinii publicznej, aż po scenariusze regulacji oraz pytanie, jak odpowiedzialnie mówić o wojnie z udziałem algorytmów.
Jak wojsko naprawdę używa sztucznej inteligencji: od analizy danych po wskazywanie celów
W nowoczesnej armii decyzja o uderzeniu na konkretny cel jest wynikiem wielostopniowego procesu. Dane z satelitów, dronów, samolotów rozpoznawczych, podsłuchu elektronicznego, źródeł ludzkich i otwartych źródeł trafiają do centrów analitycznych. Tam są wstępnie filtrowane, łączone i interpretowane. Na tej podstawie analitycy budują obraz sytuacji, dowódcy formułują zamiary operacyjne, a prawnicy i politycy oceniają ich zgodność z prawem międzynarodowym i linią polityczną państwa.
W takim łańcuchu decyzyjnym sztuczna inteligencja może pojawić się na wielu etapach: od wstępnej selekcji danych, przez generowanie hipotez („gdzie mogą znajdować się wyrzutnie rakiet?”), po proponowanie list potencjalnych celów wraz z priorytetami. Kluczowe jest to, że AI nie zastępuje wszystkich ogniw naraz, lecz staje się dodatkiem wzmacniającym możliwości ludzi – choć przy odpowiedniej skali i szybkości działania jej głos może z czasem zacząć dominować.
Duże modele językowe, takie jak Claude, to systemy uczone na ogromnych zbiorach danych tekstowych i – coraz częściej – multimodalnych. Specjalizują się w przetwarzaniu języka: potrafią podsumowywać raporty, łączyć informacje z różnych źródeł, generować scenariusze działań i rekomendacje. Nie „widzą” świata jak człowiek, ale umieją zamienić surowe dane i opisy sytuacji na uporządkowane wnioski w formie tekstu, tabel decyzyjnych czy planów działań.
W przypadku kampanii przeciwko Iranowi źródła wojskowe opisują, że połączony system Maven–Claude mógł wykonywać szereg kluczowych funkcji. Po pierwsze, przetwarzał ogromne ilości danych wywiadowczych: obrazy satelitarne, nagrania z dronów, raporty terenowe, przechwycone komunikaty. Po drugie, generował listy potencjalnych celów, identyfikując np. składy amunicji, stanowiska obrony przeciwlotniczej czy centra dowodzenia. Po trzecie, przypisywał priorytety na podstawie z góry zdefiniowanych kryteriów – znaczenia militarnego, ryzyka odpowiedzi przeciwnika, potencjalnych ofiar cywilnych oraz dostępnego „okna czasowego” na uderzenie.(washingtonpost.com)
Po czwarte, system umożliwiał symulowanie wariantów uderzeń: jakie skutki – militarne, polityczne, logistyczne – może przynieść atak na dany zestaw celów, a jakie pozostawienie go na później. Po piąte, wspierał analizę po ataku (battle damage assessment), porównując stan przed i po uderzeniu oraz wskazując, czy konieczne są kolejne działania.
W takim ujęciu AI jest raczej „współplanistą” i „doradcą” niż formalnym „dowódcą”. Rozkazy nadal podpisują konkretni oficerowie, a decyzje zapadają w ramach łańcucha dowodzenia. Równocześnie, gdy tempo operacji wzrasta, a ilość danych rośnie wykładniczo, rekomendacje systemu, który jako jedyny „ogarnia” całość obrazu sytuacji, mogą w praktyce bardzo zbliżać się do współdecydowania. Jeśli oficer ma kilkadziesiąt minut na zatwierdzenie listy celów wygenerowanej przez model, jego realna przestrzeń na kwestionowanie algorytmu gwałtownie się kurczy.
Co istotne, wiele z tych funkcji przypomina cywilne zastosowania AI. W artykule o systemie zarządzania zadaniami z wykorzystaniem Python, OpenAI i wektorowych baz danych opisywaliśmy mechanizmy automatycznej priorytetyzacji zadań, koordynacji zasobów i rekomendowania kolejnych kroków w projektach biznesowych. W wojsku logika jest podobna: lista „zadań” zamienia się w listę „celów”, a zamiast KPI dotyczących sprzedaży pojawiają się wskaźniki skuteczności militarnej i ograniczenia wynikające z prawa konfliktów zbrojnych. Mechanizm pozostaje ten sam – radykalnie zmienia się za to kontekst i stawka.
Anthropic między etyką a presją Pentagonu: warunki, zakazy i groźba sankcji
Anthropic od początku budował swój wizerunek jako firmy bardziej ostrożnej niż część konkurencji, koncentrującej się na bezpieczeństwie i przewidywaniu długoterminowych skutków rozwoju zaawansowanej AI. Model Claude powstał m.in. dzięki podejściu określanemu jako „constitutional AI”, w którym system jest trenowany z wykorzystaniem zestawu zasad etycznych i prawnych mających ograniczać ryzykowne odpowiedzi.(en.wikipedia.org)
W praktyce polityka Anthropic w obszarze zastosowań wojskowych opiera się na kilku kluczowych liniach obrony. Po pierwsze, firma sprzeciwia się wykorzystaniu jej modeli do masowej, nieselektywnej inwigilacji ludności cywilnej. Po drugie, odmawia wsparcia w tworzeniu w pełni autonomicznej broni śmiercionośnej, w której człowiek zostaje całkowicie wyłączony z pętli decyzyjnej. Po trzecie, stara się ograniczać zastosowania, w których model de facto mógłby samodzielnie wybierać cele ataków bez realnej weryfikacji przez człowieka.
Według licznych doniesień prasowych właśnie te ograniczenia stały się osią otwartego konfliktu z władzami USA. Pentagon domagał się bardzo szerokiego, w praktyce nieograniczonego prawa użycia Claude’a w operacjach militarnych i kontrwywiadowczych – w formule „wszystko, co zgodne z prawem”. Anthropic odpowiedział odmową, wskazując, że taka klauzula w połączeniu z tajnością działań wojskowych de facto wyłączyłaby firmę z możliwości kontrolowania, czy jej czerwone linie są respektowane.(washingtonpost.com)
Spór nie pozostał bez odpowiedzi polityków. Amerykański Departament Obrony – coraz częściej nazywany przez obecnego sekretarza Pete’a Hegsetha „Departamentem Wojny” – wpisał Anthropic na listę podmiotów stanowiących „zagrożenie dla łańcucha dostaw”, co otwiera drogę do zamrażania lub zrywania kontraktów oraz utrudnia współpracę także innym podwykonawcom.(spokesman.com) To wyjątkowo ostrze narzędzie, dotąd rezerwowane głównie dla firm z państw uznawanych za przeciwników strategicznych.
Dlaczego prywatna spółka technologiczna, dla której współpraca z Pentagonem oznacza miliardowe kontrakty i prestiż, decyduje się na tak otwartą konfrontację z potężnym klientem publicznym? Szerzej analizowaliśmy to w tekście o konflikcie Pentagon–Anthropic, wskazując, że stawką jest nie tylko jeden kontrakt, ale także definicja dopuszczalnych zastosowań AI w sektorze publicznym na kolejne lata. Firma, która dziś ustąpi, jutro może zostać zmuszona do współtworzenia systemów wykraczających poza jej własne standardy etyczne.
Ryzyka militarnej AI: błędy modeli, eskalacja konfliktów i kryzys odpowiedzialności
Wykorzystanie dużych modeli językowych w wojsku rodzi szereg ryzyk, które można uporządkować w kilku kategoriach. Część z nich znamy z cywilnych wdrożeń AI, ale w kontekście militarnym konsekwencje błędów sięgają poziomu życia i śmierci, eskalacji konfliktów i odpowiedzialności państw przed trybunałami.
Po pierwsze, ryzyka techniczne. LLM‑y „halucynują”, czyli potrafią generować przekonujące, lecz fałszywe wnioski, zwłaszcza gdy dane wejściowe są niepełne lub sprzeczne. Jeśli model ocenia, czy dany budynek jest elementem infrastruktury wojskowej, a ma do dyspozycji jedynie fragmentaryczne obrazy i szczątkowe raporty, może dojść do błędnej klasyfikacji. Kolejny problem to uprzedzenia zakodowane w danych treningowych – na przykład nadmierne promowanie scenariuszy siłowej deeskalacji albo niedoszacowywanie ryzyka ofiar cywilnych w określonych kontekstach kulturowych.
Dodatkowo, działanie zaawansowanych modeli pozostaje w dużej mierze „czarną skrzynką”. Nawet jeśli system generuje listę celów wraz z komentarzem, dlaczego uznał je za priorytetowe, rekonstruowanie dokładnej ścieżki obliczeń, wag i wewnętrznych reprezentacji jest niezwykle trudne. To utrudnia audyt ex post: odpowiedź na pytanie, dlaczego konkretny cel znalazł się na liście, może okazać się niejednoznaczna lub wręcz niemożliwa do odtworzenia.
Po drugie, ryzyka operacyjne. W literaturze o automatyzacji mówi się o „automatyzacyjnym uprzedzeniu” – skłonności ludzi do nadmiernego zaufania rekomendacjom systemów, które postrzegają jako obiektywne i lepiej poinformowane. W warunkach presji czasu dowódca może przyjąć listę celów wygenerowaną przez AI niemal bez zmian, traktując ją jako „domyślną prawdę”, nawet jeśli jego intuicja podpowiada wątpliwości.
Kolejnym problemem jest przyspieszenie cyklu decyzyjnego. Jeśli planowanie całej kampanii, które wcześniej zajmowało tygodnie, można zredukować do godzin, to procesy politycznej i prawnej kontroli stają się iluzoryczne. Parlamenty, rządy i sojusznicy nie są w stanie reagować z tą samą prędkością, z jaką algorytmy produkują nowe warianty uderzeń. Pojawia się ryzyko, że logika „bo technicznie się da” zdominuje refleksję nad skutkami strategicznymi i humanitarnymi.
Do tego dochodzi podatność modeli na ataki. Złośliwy aktor może próbować zatruwać dane wejściowe (data poisoning), wprowadzając fałszywe informacje do strumieni wywiadowczych tak, by AI zaczęła wskazywać cele zastępcze lub nieistotne. Możliwe są także cyberataki na same modele – od wykradania ich parametrów po manipulację konfiguracją i prompty systemowe.
Trzecia kategoria to ryzyka prawne i etyczne. Kto ponosi odpowiedzialność za ofiary cywilne, jeśli kluczową rolę w wyborze celów odgrywa system AI? Dowódca, który podpisał rozkaz, inżynierowie tworzący model, politycy zatwierdzający jego użycie, czy może producent oprogramowania? Prawo międzynarodowe konfliktów zbrojnych opiera się na pojęciach zamiaru, przewidywalności i proporcjonalności – trudno je zastosować do złożonych systemów algorytmicznych, które działają na granicy ludzkiej zrozumiałości.
Warto zilustrować te ryzyka prostym, hipotetycznym przykładem. Wyobraźmy sobie, że wokół dużego szpitala w strefie konfliktu narasta intensywny ruch samochodów dostawczych, a część z nich nie ma oznaczeń medycznych. System AI, uczony na danych z innych konfliktów, w których podobne wzorce towarzyszyły ukrytym magazynom broni, klasyfikuje obiekt jako potencjalny cel wojskowy wysokiego priorytetu. Jeśli człowiek przyjmie tę rekomendację bez dodatkowej weryfikacji, może dojść do tragicznego w skutkach ataku na infrastrukturę medyczną.
Ta sama logika – priorytetyzacja zadań, automatyczne rekomendacje działań, optymalizacja zasobów – w środowisku cywilnym może podnosić efektywność firm, skracać czas realizacji projektów i poprawiać obsługę klienta. W wojsku stawka błędu rośnie do poziomu życia i śmierci, a błąd klasyfikacji oznacza nieudany kontrakt, lecz zniszczoną szkołę lub szpital.
Reakcje opinii publicznej, ekspertów i branży technologicznej na wojnę z udziałem Claude’a
Ujawnienie skali udziału Claude’a w kampanii przeciwko Iranowi uruchomiło gwałtowną debatę publiczną. W wielu krajach, w tym w Polsce, organizacje praw człowieka podkreślają, że mówimy o „normalizacji wojny algorytmicznej” – sytuacji, w której decyzje o użyciu siły zbrojnej są coraz głębiej zanurzone w systemach informatycznych i zautomatyzowanych procedurach. Krytycy obawiają się, że im więcej odpowiedzialności zostanie „przeniesione” na modele, tym łatwiej będzie politykom i wojskowym psychologicznie zaakceptować kolejne uderzenia.
Eksperci od bezpieczeństwa i prawnicy międzynarodowi są podzieleni. Część, jak cytowany w polskich mediach prof. Krzysztof Liedel, zwraca uwagę, że wykorzystanie zaawansowanej analityki może potencjalnie ograniczyć liczbę ofiar cywilnych, jeśli poprawnie identyfikuje cele wojskowe i pozwala unikać uderzeń na obiekty o wątpliwym statusie. Inni wskazują, że brak transparentności algorytmów utrudnia weryfikację takich deklaracji i rozliczanie ewentualnych naruszeń prawa humanitarnego.
W debacie można wyróżnić dwa główne nurty. Pierwszy, krytyczny, koncentruje się na zagrożeniu rozmycia odpowiedzialności. Jeśli lista celów powstaje w wyniku działania złożonej sieci systemów analitycznych, a decyzja jest wynikiem „procesu”, który sam w sobie staje się przedmiotem zaufania („system wie lepiej”), odpowiedzialność poszczególnych osób blaknie. Drugi nurt, bardziej pragmatyczny, argumentuje, że skoro wojny i tak się toczą, to lepiej, by były prowadzone z użyciem narzędzi zwiększających precyzję i świadomość sytuacyjną, niż bez nich. Według tego stanowiska zakazywanie AI w wojsku byłoby jak zakaz używania nowoczesnych systemów nawigacji – nie zatrzymałoby konfliktów, a mogłoby zwiększyć chaos.
Branża technologiczna również nie reaguje jednolicie. Decyzja Anthropic o twardych czerwonych liniach jest przez część środowiska oceniana jako odważna próba wyznaczenia standardów odpowiedzialności. Inne firmy AI są jednak bardziej skłonne do przyjęcia kontraktów wojskowych na warunkach bliskich żądaniom Pentagonu – w tym z formułą „wszystko, co zgodne z prawem”. To tworzy ryzyko klasycznego „wyścigu do dna”, w którym ambitniejsze standardy etyczne stają się przewagą konkurencyjną nie dla tych, którzy je stosują, lecz dla tych, którzy je ignorują.
Na tym tle spór Pentagon–Anthropic staje się nie tylko konfliktem o jeden system, ale też testem dla całego ekosystemu innowacji: czy najwięksi gracze będą w stanie utrzymać minimalny konsensus co do granic zastosowań AI w wojsku, czy też rynek zostanie zdominowany przez tych, którzy zaakceptują najbardziej agresywne wymagania państw.
Co dalej z militarną sztuczną inteligencją: scenariusze regulacji i rola społeczeństw demokratycznych
Doświadczenia kampanii w Iranie przyspieszają debatę o przyszłości militarnej AI. Można zarysować kilka realistycznych scenariuszy rozwoju sytuacji w nadchodzących latach.
Pierwszy to scenariusz „pełnej militaryzacji AI”. W tym wariancie państwa rezygnują z twardych ograniczeń, zwiększają budżety na projekty takie jak Maven i dążą do ścisłej integracji LLM‑ów z systemami bojowymi. Decyzje na polu walki stają się coraz bardziej zautomatyzowane, a rola człowieka sprowadza się do nadzoru nad infrastrukturą i zatwierdzania ogólnych celów strategicznych. Taki kierunek grozi nową spiralą wyścigu zbrojeń – tym razem nie na liczby głowic czy samolotów, lecz na moc modeli, jakość danych i głębokość integracji AI z łańcuchami dowodzenia.
Drugi scenariusz można określić jako „regulowane wykorzystanie”. Zakłada on wprowadzenie umiarkowanych, ale precyzyjnych regulacji: zakazu używania modeli do wyboru celów bez weryfikacji człowieka, wymogów ścieżek audytu decyzji (tak, by można było odtworzyć, jak powstała dana rekomendacja), a także międzynarodowych konwencji dotyczących autonomicznej broni i algorytmicznego planowania operacji. Kluczową rolę odgrywałyby tu organizacje międzynarodowe i sojusze wojskowe, które mogą ustanawiać wspólne standardy i mechanizmy weryfikacji.
Trzeci scenariusz to „cywilny bufor”. W tym wariancie najsilniejszy opór wobec pełnej militaryzacji AI pochodzi nie tyle od rządów, ile od społeczeństw, środowisk biznesowych i inwestorów. Najbardziej zaawansowane modele pozostają w praktyce narzędziami dla sektora prywatnego, badań naukowych i administracji cywilnej, a linie produktowe przeznaczone dla wojska są celowo ograniczane pod względem możliwości. Firmy, chcąc chronić swoją reputację i relacje z klientami, wybierają współpracę z sektorem obronnym tylko w ściśle zdefiniowanych obszarach, np. cyberbezpieczeństwa czy logistyki, z wyłączeniem bezpośredniego udziału w planowaniu ataków kinetycznych.
Niezależnie od tego, który scenariusz okaże się dominujący, kluczowa będzie kwestia transparentności. Społeczeństwa demokratyczne mogą zaakceptować pewien poziom wykorzystania AI w wojsku tylko wtedy, gdy będą mieć minimalną wiedzę o tym, w jakim zakresie i na jakich zasadach jest ona stosowana. Oznacza to potrzebę wprowadzenia obowiązkowego raportowania roli AI w operacjach, niezależnych audytów technologicznych oraz rzeczywistej debaty parlamentarnej i publicznej.
Przypadek Anthropic może stać się tu precedensem. W jednym wariancie będzie to pokaz siły państwa wobec prywatnej firmy, która ostatecznie ugnie się pod presją, tracąc możliwość kształtowania standardów bezpieczeństwa swoich produktów. W innym – impuls do wypracowania nowych form współpracy, w których „bezpieczeństwo” oznacza nie tylko skuteczność militarną, ale także poszanowanie prawa humanitarnego i minimalizację szkód cywilnych. W tym kontekście warto wrócić do wniosków z tekstów o możliwościach Claude Sonnet 4.6 w biznesie i o sporze Pentagon–Anthropic: technologie, które czynią firmy bardziej produktywnymi i konkurencyjnymi, mogą w rękach armii stać się narzędziem drastycznego zwiększenia tempa i skali działań wojennych.
Jak rozmawiać o wojnie z udziałem AI: odpowiedzialne narracje i rola mediów
Na koniec pozostaje pytanie nie tylko o to, jak używać militarnej AI, ale także jak o niej mówić. Sensacyjne nagłówki sugerujące, że „Claude dowodzi na wojnie z Iranem”, upraszczają problem do obrazu „maszyna przejęła kontrolę”. W rzeczywistości najważniejsze kwestie dotyczą architektury odpowiedzialności, procesów decyzyjnych i mechanizmów nadzoru nad użyciem przemocy.
Precyzyjny język ma tu znaczenie. Istnieje zasadnicza różnica między stwierdzeniami „AI wspiera planowanie operacji”, „system rekomenduje cele”, a „algorytm automatycznie wybiera cele i decyduje o uderzeniu”. Dla opinii publicznej to niuanse, ale dla prawników, etyków i polityków – linie oddzielające dopuszczalne wykorzystanie technologii od jej nadużyć. Media, komentatorzy i sami twórcy systemów powinni dbać o to rozróżnienie, zamiast mieszać wszystkie scenariusze w jedną opowieść o „buncie maszyn”.
Świadomy odbiorca informacji o militarnym wykorzystaniu AI powinien zadawać kilka prostych pytań: kto kontroluje system, na jakim etapie procesu decyzyjnego jest on używany, jakie istnieją zabezpieczenia przed błędami i nadużyciami, czy przewidziano mechanizmy audytu i niezależnej kontroli. Warto także zwracać uwagę na źródła: czy opis opiera się na oficjalnych oświadczeniach, analizach poważnych redakcji, czy jedynie na anonimowych przeciekach i opowieściach z drugiej ręki.
Dobrze pamiętać, że technologie omawiane na tym blogu w kontekście biznesu, produktywności i zarządzania zadaniami – takie jak systemy opisane w artykule o AI‑powered task management – w innych rękach i warunkach mogą stać się elementem architektury wojny. Ta podwójność zastosowań nakłada na branżę technologiczną, decydentów i społeczeństwa demokratyczne szczególną odpowiedzialność za ustanawianie jasnych granic oraz rozwijanie kultury krytycznego myślenia o AI.
Decyzja, jak daleko pozwolimy militarnej sztucznej inteligencji ingerować w kwestie życia i śmierci, nie może należeć ani wyłącznie do algorytmów, ani do zamkniętych negocjacji między rządem a jedną firmą technologiczną. Wymaga szerokiej, świadomej debaty publicznej, w której obecne będą głosy wojskowych, inżynierów, prawników, organizacji społecznych i zwykłych obywateli. Od jakości tej rozmowy zależy, czy AI na polu bitwy stanie się narzędziem ograniczania przemocy, czy raczej kolejnym akceleratorem konfliktów, które wymkną się spod kontroli.

