Sztuczna inteligencja w Pentagonie i drony Shahed: jak AI zmienia zasady gry na Bliskim Wschodzie

Sztuczna inteligencja w Pentagonie i drony Shahed: jak AI zmienia zasady gry na Bliskim Wschodzie

Pentagon sięga po sztuczną inteligencję: co wiemy o wykorzystaniu modelu Anthropic do wyboru celów w Iranie

W ostatnich tygodniach opinię publiczną zelektryzowały doniesienia „Washington Post”, że Pentagon wykorzystuje model sztucznej inteligencji opracowany przez firmę Anthropic do wspierania procesu wyboru celów w Iranie. Chodzi o system klasy dużego modelu językowego (LLM), który nie tylko analizuje dane wywiadowcze, lecz realnie uczestniczy w tzw. procesie targetingu – wskazywania obiektów potencjalnego ataku i priorytetyzacji listy celów. Amerykańscy urzędnicy mają podkreślać, że ostateczna decyzja pozostaje w rękach człowieka, ale w praktyce rekomendacje algorytmu zaczynają mieć znaczący wpływ na to, kto i co zostanie zaatakowane.

Aby zrozumieć wagę tej zmiany, warto wyjaśnić, czym są duże modele językowe i generatywne systemy AI. To algorytmy uczone na ogromnych zbiorach danych tekstowych, obrazowych i innych, które potrafią przewidywać kolejne słowa, tworzyć spójne odpowiedzi, streszczać dokumenty, analizować zdjęcia czy mapy. W zastosowaniach wojskowych można je wpiąć w istniejące systemy dowodzenia: od automatycznego przeglądu meldunków wywiadu, przez wykrywanie powtarzających się wzorców aktywności przeciwnika, aż po sugerowanie, które cele są „najbardziej wartościowe” z punktu widzenia planowanej operacji.

W praktyce taki system może otrzymywać dane z satelitów, dronów, radarów, przechwyconych komunikatów czy raportów terenowych i w ciągu sekund przygotowywać oficerom propozycje: które obiekty są prawdopodobnie magazynem amunicji, które – stanowiskiem dowodzenia, a które – infrastrukturą cywilną, której należy unikać. Z technicznego punktu widzenia nie jest to już wizja rodem z science fiction, lecz element realnej praktyki wojskowej. Z punktu widzenia odpowiedzialności oznacza jednak przesunięcie ciężaru decyzyjnego: od ludzi, którzy tradycyjnie odpowiadali za rozpoznanie i wybór celu, w stronę algorytmów, których logika działania jest częściowo nieprzejrzysta nawet dla ich twórców.

To rodzi trzy fundamentalne pytania. Po pierwsze: jak integracja systemów klasy Anthropic zmienia charakter współczesnych konfliktów zbrojnych, w których czas reakcji liczony jest w sekundach, a liczba potencjalnych celów idzie w tysiące? Po drugie: jakie są realne możliwości techniczne takich modeli i gdzie przebiegają ich ograniczenia, zwłaszcza w dynamicznym środowisku pola walki? I po trzecie: kto ponosi odpowiedzialność prawną i moralną za skutki ataku, jeśli kluczową rekomendację przygotowuje AI, a człowiek jest jedynie „zatwierdzającym” pod presją czasu?

Odpowiedź na te pytania wymaga osadzenia amerykańsko-irańskiego studium przypadku w szerszym kontekście – w tym w doświadczeniach związanych z irańskimi dronami Shahed oraz trendem przechodzenia od nielicznych, kosztownych systemów broni do masowych, częściowo autonomicznych platform. To właśnie ten krajobraz operacyjny sprawia, że połączenie Pentagonu i modelu Anthropic przestaje być eksperymentem technologicznym, a staje się elementem nowej logiki wojny.

Drony Shahed jako przykład nowego typu zagrożeń: wnioski z ostatnich miesięcy

Irańskie drony Shahed stały się jednym z symboli zmiany, jaka dokonuje się w technice wojennej. To stosunkowo proste, tanie w produkcji i eksploatacji bezzałogowce kamikadze, które można wytwarzać w dużych seriach. Zamiast jednego, wyrafinowanego i niezwykle kosztownego pocisku manewrującego, państwo może wysłać dziesiątki lub setki Shahedów, licząc na przeciążenie systemów obrony powietrznej przeciwnika.

Dla laika kluczowe są ich podstawowe parametry operacyjne. Shahedy poruszają się powoli i na stosunkowo małej wysokości, co w połączeniu z ich niewielkim rozmiarem i specyficznym profilem radarowym utrudnia wykrycie. W przeciwieństwie do szybkich pocisków balistycznych, które pojawiają się na radarach wyraźnie, te drony potrafią „wtopić się” w tło, a ich lot bywa wykrywany dopiero na niewielkim dystansie. W scenariuszu ataku saturacyjnego – gdy jednocześnie nadlatuje wiele obiektów – nawet dobrze zorganizowana obrona powietrzna może sobie nie poradzić z przechwyceniem wszystkich.

W takich słowach opisują wyzwanie amerykańscy urzędnicy cytowani przez stację CNN: przyznają, że obrona powietrzna USA i sojuszników nie jest w stanie zestrzelić każdego drona tego typu, zwłaszcza przy atakach rojem. Jednocześnie wskazują, że niektóre państwa partnerskie, takie jak Ukraina, wypracowały ponadprzeciętnie wysoką skuteczność neutralizowania Shahedów – sięgającą około 90 proc. – dzięki połączeniu klasycznych systemów obrony powietrznej, krajowej produkcji dronów przechwytujących i rozproszonej sieci obserwatorów oraz sensorów.

Ukraina zbudowała wielowarstwowy ekosystem: ostrzeganie radarowe, mobilne zespoły z artylerią przeciwlotniczą, systemy rakietowe średniego i krótkiego zasięgu oraz improwizowane „barykady” z małych dronów, które mogą przechwytywać Shahedy w ostatniej fazie lotu. Istotną rolę pełni też rozproszone rozpoznanie – aplikacje, za pomocą których mieszkańcy zgłaszają zauważone obiekty, oraz sieci obserwatorów wizualnych i akustycznych. W takim środowisku kluczowym wyzwaniem nie jest już brak informacji, lecz ich nadmiar i konieczność błyskawicznego przetwarzania.

To prowadzi do szerszej lekcji: współczesne pole walki ewoluuje od świata kilku bardzo drogich, silnie chronionych platform (bombowce, okręty, pojedyncze rakiety) do rzeczywistości tysięcy relatywnie tanich, częściowo autonomicznych systemów. Zarówno po stronie atakującego, jak i broniącego się, kluczowa staje się zdolność do szybkiego wykrywania, klasyfikowania i priorytetyzacji celów. Właśnie w takim środowisku decyzje o integracji AI z systemami obrony powietrznej wydają się dla decydentów naturalnym krokiem.

System klasy Anthropic może dla dowódcy stać się czymś w rodzaju super-analityka pracującego 24 godziny na dobę: agreguje dane z radarów, dronów, sensorów akustycznych, meldunków z terenu i w czasie bliskim rzeczywistemu wskazuje, które obiekty wymagają natychmiastowej reakcji. W ten sposób AI staje się „multiplikatorem siły” – pozwala lepiej wykorzystać ograniczone zasoby obrony przeciwlotniczej w obliczu masowego zagrożenia Shahedami lub innymi dronami kamikadze.

Jak AI zmienia charakter współczesnych konfliktów zbrojnych

Współczesna wojna coraz częściej opisywana jest za pomocą pojęcia „kill chain” – łańcucha działań prowadzących od wykrycia przeciwnika do użycia wobec niego śmiercionośnej siły. W uproszczeniu obejmuje on: pozyskanie danych (czujniki, satelity, drony, systemy SIGINT przechwytujące komunikację), ich analizę i klasyfikację (czy to cel wojskowy, czy cywilny), wybór i zatwierdzenie celu oraz wreszcie użycie efektora – rakiety, artylerii, drona uderzeniowego.

W tym łańcuchu funkcjonuje też koncepcja „sensor-to-shooter”, oznaczająca możliwie bezpośrednie, szybkie przełożenie informacji z sensorów na decyzję o strzale. Im krótszy czas od wykrycia do uderzenia, tym trudniej przeciwnikowi zmienić pozycję lub ukryć się w infrastrukturze cywilnej. Jednocześnie każda sekunda mniej na analizę zwiększa ryzyko błędnej identyfikacji celu.

Sztuczna inteligencja zaczyna wchodzić w każdy z etapów tego łańcucha. W zakresie zbierania danych wykorzystuje się ją do automatycznego wykrywania obiektów na zdjęciach satelitarnych czy nagraniach z dronów. W fazie analizy – do klasyfikacji wzorców ruchu, rozpoznawania struktur (np. magazynów, stanowisk artylerii), przewidywania zamiarów przeciwnika. Coraz częściej modele AI współuczestniczą także w planowaniu misji, wyznaczaniu tras przelotu dronów, a w perspektywie kilku lat – w adaptacyjnym sterowaniu rojami wielu platform bezzałogowych, które będą wzajemnie wymieniać dane i podejmować częściowo autonomiczne decyzje.

Na poziomie geopolitycznym mamy do czynienia z wyścigiem zbrojeń w obszarze autonomicznych systemów pomiędzy USA, Rosją, Chinami oraz szeregiem innych państw, w tym regionalnych mocarstw Bliskiego Wschodu. Przewaga militarna coraz mniej zależy wyłącznie od liczby czołgów czy samolotów, a coraz bardziej od dostępu do mocy obliczeniowej, danych treningowych oraz jakości modeli. Ten wymiar technologiczny jest ściśle powiązany z gigantycznymi inwestycjami opisanymi choćby w tekście o nowej ekonomii mocy obliczeniowej w AI do 2030 roku.

W praktyce oznacza to, że system klasy Anthropic staje się dla dowódcy czymś w rodzaju niezwykle wydajnego, ale pozbawionego intuicji i odpowiedzialności analityka. Może przetworzyć milion stron raportów szybciej, niż człowiek zdąży przeczytać pierwsze akapity, i wskazać „najbardziej prawdopodobne” cele. Jednak to właśnie brak ludzkiego doświadczenia, empatii i zrozumienia kontekstu sprawia, że rośnie presja na automatyzację decyzji przy jednoczesnym zwiększeniu ryzyka poważnych błędów.

Im bardziej skracany jest czas reakcji – czy to na ataki dronów, czy na manewry wojsk przeciwnika – tym silniejsza staje się pokusa, by przynajmniej część decyzji o użyciu siły podejmować w trybie półautomatycznym. Tu zderzają się dwie logiki: wojskowa, nastawiona na efektywność i przewagę czasową, oraz humanitarno-prawna, która wymaga starannego rozróżniania celów i minimalizowania ofiar cywilnych.

Techniczne możliwości i ograniczenia modeli takich jak Anthropic w zastosowaniach wojskowych

Generatywne modele AI, w tym rozwiązania rozwijane przez Anthropic, działają w oparciu o statystyczne przewidywanie kolejnych słów, znaków lub fragmentów obrazu na podstawie wzorców wyuczonych na gigantycznych zbiorach danych. Nie „rozumieją” sytuacji tak jak człowiek – nie mają świadomości pola walki, nie odczuwają strachu ani odpowiedzialności. Doskonale radzą sobie natomiast z odnajdywaniem regularności, streszczaniem informacji i tworzeniem hipotez.

Z perspektywy wojska ich mocne strony są oczywiste. Potrafią błyskawicznie analizować ogromne ilości tekstowych i wizualnych raportów, wyłapując powtarzające się wzorce – na przykład powiązania między ruchem konkretnych konwojów a późniejszym ostrzałem rakietowym. Ułatwiają priorytetyzację informacji: zamiast setek meldunków dowódca otrzymuje listę kilku najważniejszych „anomalii” wymagających uwagi. Mogą sugerować scenariusze działań przeciwnika, bazując na historycznych danych i symulacjach.

Jednocześnie te same modele wykazują istotne ograniczenia. Po pierwsze, są podatne na tzw. halucynacje – generują odpowiedzi, które brzmią przekonująco, ale są po prostu błędne. W zastosowaniach militarnych może to oznaczać błędne przypisanie charakteru obiektowi, mylne powiązanie go z infrastrukturą wojskową albo nieprawidłowe wnioski dotyczące zamiarów przeciwnika.

Po drugie, model nie ma pełnej, wbudowanej wiedzy o aktualnej sytuacji operacyjnej. Działa na podstawie danych wejściowych, które otrzyma, oraz wiedzy ogólnej z okresu treningu. Jeśli dane są niepełne, zaszumione lub tendencyjne, wynik także może być zniekształcony. Po trzecie, generatywna AI ma ograniczoną zdolność do stosowania w praktyce skomplikowanych i nie zawsze formalnie zapisanych zasad ROE (rules of engagement) czy międzynarodowego prawa humanitarnego. Nawet jeśli zna ich treść, to przełożenie tych norm na konkretne sytuacje bywa trudne nawet dla doświadczonych oficerów.

Z tego powodu w systemach wojskowych modele językowe muszą być integrowane z innymi modułami: systemami rozpoznania obrazowego, bazami danych o infrastrukturze cywilnej, modelami oceny ryzyka i złożonymi mechanizmami autoryzacji. Każdy z tych interfejsów staje się potencjalnym źródłem błędów. Dodajmy do tego kwestie bezpieczeństwa: podatność na błędne lub wrogie dane wejściowe (data poisoning), możliwość dezinformacji poprzez podstawianie fałszywych sygnałów, a także awarie sprzętu obliczeniowego czy opóźnienia komunikacyjne w warunkach zakłóceń elektromagnetycznych.

Wreszcie, zastosowania militarne wymagają znacznych zasobów infrastrukturalnych – od wydajnych procesorów graficznych po niezawodne sieci łączności i zabezpieczone centra danych. Bez nich nawet najdoskonalszy model nie będzie w stanie działać w czasie zbliżonym do rzeczywistego. W tym kontekście na znaczeniu zyskują partnerstwa technologiczne między sektorem publicznym a prywatnym, jak chociażby te opisywane w analizie dotyczącej współpracy Microsoft–OpenAI.

Kto ponosi odpowiedzialność, gdy AI wskazuje cele? Dylematy prawne i etyczne

Gdy model Anthropic rekomenduje cel ataku, a oficer w centrum dowodzenia ma kilka sekund na jego zatwierdzenie, pytanie „kto naprawdę zdecydował” przestaje być abstrakcją. Klasyczne rozumienie odpowiedzialności opiera się na łańcuchu dowodzenia: od polityków, przez najwyższe dowództwo, po operatorów wykonujących rozkaz. Wraz z wprowadzeniem AI powstaje jednak nowy, rozproszony łańcuch odpowiedzialności.

W tym łańcuchu znajdują się projektanci modelu i algorytmów, dostawcy danych treningowych, firmy budujące infrastrukturę, wojskowi specjaliści integrujący system z realnymi sensorami oraz oficerowie i politycy, którzy definiują reguły użycia. Każdy z tych podmiotów ma ograniczoną sprawczość i ograniczoną wiedzę o całości systemu. Gdy dojdzie do tragedii – na przykład zbombardowania budynku mieszkalnego błędnie uznanego przez AI za magazyn broni – łatwo o sytuację, w której „wina” zostaje rozproszona tak bardzo, że trudno ją komukolwiek przypisać.

Międzynarodowe prawo humanitarne – w tym zasada rozróżnienia między kombatantami a cywilami, zasada proporcjonalności oraz konieczności wojskowej – wymaga, by decyzje o użyciu siły były podejmowane z należytą starannością i przy maksymalnym wysiłku na rzecz ochrony ludności cywilnej. Przełożenie tych norm na parametry modelu AI jest jednak zadaniem skrajnie trudnym. Prawo operuje pojęciami nieostrymi, wymagającymi interpretacji, a pole walki jest dynamiczne i pełne niepewności.

Eksperci cytowani przez „Washington Post” ostrzegają, że odwołanie się do „błędu sztucznej inteligencji” może stać się wygodnym mechanizmem rozmywania odpowiedzialności: „wtedy nie ma zbrodni, nie ma pomyłek, jest błąd algorytmu”. To ryzyko jest szczególnie niebezpieczne w systemach, gdzie człowiek staje się jedynie formalnym „zatwierdzającym” rekomendację AI, a w praktyce podąża za nią niemal automatycznie, bo nie ma czasu ani narzędzi, by ją pogłębienie zweryfikować.

Pojawia się też problem „automatyzacji dehumanizacji” przeciwnika. Jeśli cel sprowadza się w interfejsie systemu do zestawu współrzędnych, ikonki na ekranie i prawdopodobieństwa „statusu bojowego” obiektu, łatwiej psychologicznie oddzielić się od faktycznych skutków ataku – śmierci i cierpienia konkretnych ludzi. Automatyzacja decyzji bojowych może więc nie tylko zwiększać efektywność, lecz także osłabiać naturalne hamulce moralne.

W wymiarze strategicznym widać analogię do wyścigu zbrojeń jądrowych: jeśli jeden aktor zaczyna masowo wykorzystywać AI do szybszego, bardziej agresywnego targetingu, inni mogą poczuć się zmuszeni, by pójść tą samą drogą w obawie przed utratą przewagi. Różnica polega na tym, że próg wejścia w wyścig AI jest niższy niż w przypadku broni nuklearnej – dostęp do chmury obliczeniowej i gotowych modeli jest dużo łatwiejszy niż budowa bomby atomowej. To sprawia, że ryzyko rozprzestrzenienia się takich rozwiązań na wielu aktorów – w tym państwa słabiej kontrolujące swoje struktury wojskowe – jest realne.

Infrastruktura, wyścig zbrojeń w AI i rola sektora prywatnego

Wykorzystanie systemów klasy Anthropic przez Pentagon podkreśla jeszcze jeden istotny trend: rosnącą rolę sektora prywatnego w budowaniu militarnej przewagi państw. Zaawansowane modele sztucznej inteligencji powstają dziś przede wszystkim w globalnych firmach technologicznych, które inwestują miliardy dolarów w centra danych, układy GPU oraz badania nad nowymi architekturami algorytmicznymi.

Wspomniane już analizy na temat inwestycji rzędu setek miliardów dolarów w infrastrukturę AI do 2030 roku pokazują, że walka o przewagę obliczeniową nie ogranicza się do rynku komercyjnego. Ta sama moc obliczeniowa, która umożliwia generowanie tekstów, obrazów czy symulacji w biznesie, może być wykorzystana do trenowania modeli wykorzystywanych w wojsku – od analizy zdjęć satelitarnych po planowanie operacji bojowych.

Kluczową rolę odgrywają przy tym partnerstwa między gigantami technologicznymi a twórcami modeli. Współpraca Microsoftu z OpenAI, szczegółowo opisana w artykule o przebudowie rynku technologii i pracy z AI, jest jednym z najbardziej znanych przykładów. Od tego, jak takie partnerstwa są ukształtowane, zależy także dostęp państw – w tym resortów obrony – do najbardziej zaawansowanych narzędzi.

Model Anthropic używany przez Pentagon jest produktem sektora prywatnego. Pojawiają się zatem pytania: kto kontroluje kierunki jego rozwoju, jakie motywacje stoją za decyzjami produktowymi (zysk, presja inwestorów, reputacja), jak zbudowane są klauzule w umowach z resortami obrony dotyczące bezpieczeństwa, odpowiedzialności za błędy czy możliwości wyłączenia systemu w określonych warunkach.

Równolegle rośnie znaczenie alternatywnych, bardziej otwartych ekosystemów AI. Projekty inspirowane ideą otwartego, częściowo zdecentralizowanego AGI, analizowane m.in. w tekście o potencjale otwartych, tokenizowanych platform AGI, mogą z jednej strony zwiększać innowacyjność i demokratyzować dostęp do AI, z drugiej – utrudniać kontrolę nad tym, kto i w jakim celu wykorzystuje potężne modele. Rozproszenie kontroli może więc sprzyjać także militarnej proliferacji rozwiązań, które wcześniej były zarezerwowane dla kilku państw i korporacji.

Scenariusze na przyszłość: regulacje, ograniczenia użycia i odpowiedzialny rozwój wojskowej AI

Na tle doniesień o wykorzystaniu modeli Anthropic do wyboru celów w Iranie oraz rosnącego zagrożenia ze strony dronów Shahed wyraźnie widać, że debata o bezpieczeństwie międzynarodowym i debata o sztucznej inteligencji stają się nierozerwalne. W najbliższych latach możemy spodziewać się kilku możliwych scenariuszy rozwoju sytuacji.

Pierwszy to scenariusz braku skutecznych regulacji i szybkiej militaryzacji AI. W takim świecie kolejne państwa wprowadzają algorytmy do wszystkich etapów „kill chain”, a udział automatów w wyborze celów rośnie z każdym konfliktem. Presja na przewagę czasową wypiera ostrożność, a przypadki tragicznych pomyłek tłumaczone są „błędami algorytmów”. Ryzyko niezamierzonej eskalacji konfliktów – na przykład wskutek serii błędnych klasyfikacji – staje się realnym zagrożeniem globalnego bezpieczeństwa.

Drugi scenariusz to częściowe porozumienia międzynarodowe, ograniczające najbardziej niebezpieczne zastosowania. Mogą to być regulacje dotyczące tzw. LAWS (lethal autonomous weapon systems) – w pełni autonomicznych systemów śmiercionośnych – oraz wymogi zachowania „meaningful human control”, czyli znaczącej, realnej kontroli człowieka nad decyzją o użyciu śmiercionośnej siły. Państwa mogłyby zobowiązać się do utrzymywania człowieka w pętli decyzyjnej przynajmniej na etapie autoryzacji ataku.

Trzeci, najbardziej ambitny scenariusz to szeroki reżim regulacyjny obejmujący przejrzystość zastosowań AI w wojsku, niezależne audyty modeli, mechanizmy raportowania incydentów oraz międzynarodowe normy dotyczące odpowiedzialności prawnej za wykorzystanie AI w konflikcie. Taki reżim mógłby funkcjonować podobnie do istniejących konwencji w sprawie broni chemicznej czy min przeciwpiechotnych, choć oczywiście różnice technologiczne i polityczne czynią to zadanie wyjątkowo trudnym.

Niezależnie od scenariusza, już dziś można wskazać kilka zasad odpowiedzialnego rozwoju wojskowej AI. Na etapie projektowania modeli i systemów konieczne jest wbudowanie mechanizmów zgodności z prawem humanitarnym – od filtrowania danych treningowych po testowanie na skrajnych, rzadkich scenariuszach. W fazie wdrożenia niezbędne są rzetelne szkolenia operatorów i dowódców, tak aby rozumieli ograniczenia AI i potrafili krytycznie oceniać jej rekomendacje. Coraz częściej mówi się o konieczności procedur typu „human-in-the-loop” (człowiek w pętli decyzyjnej) i „human-on-the-loop” (człowiek nadzorujący system zdolny do autonomicznych decyzji, z możliwością interwencji).

Konieczny jest także realny nadzór demokratyczny – rola parlamentów, sądów, organizacji międzynarodowych i ekspertów cywilnych, którzy mogą oceniać zgodność wojskowych zastosowań AI z prawem i etyką. Transparentność, choć w naturalny sposób ograniczana przez tajemnicę wojskową, nie może sprowadzać się wyłącznie do wewnętrznych, niejawnych procedur.

Przypadek Pentagonu sięgającego po model Anthropic oraz doświadczenia z irańskimi dronami Shahed pokazują, że pytanie nie brzmi już „czy” AI wejdzie do arsenałów wojskowych, lecz „jak” i „na jakich warunkach”. Dla czytelnika zainteresowanego wojskowością i technologią oznacza to, że śledzenie dyskusji o regulacjach, infrastrukturze obliczeniowej, partnerstwach technologicznych i standardach etycznych staje się elementem odpowiedzialności obywatelskiej. Decyzje podejmowane dziś – często w zaciszach gabinetów resortów obrony i zarządów wielkich firm technologicznych – zadecydują o tym, jak będą wyglądały konflikty zbrojne w kolejnych dekadach i jaką rolę odegra w nich sztuczna inteligencja.


Leave a Reply

Your email address will not be published. Required fields are marked *