Kiedy zasady pisze kod: jak spór Anthropic z Pentagonem stał się punktem zwrotnym dla militarnej AI
Kilka linijek regulaminu użytkowania oprogramowania rzadko trafia na pierwsze strony gazet i do rozmów ministrów obrony. Tym razem jest inaczej. Spór między firmą Anthropic a Pentagonem dotyczący warunków wykorzystania modeli sztucznej inteligencji w zastosowaniach wojskowych stał się jednym z najważniejszych testów tego, kto faktycznie kontroluje rozwój i użycie bojowego AI – państwa czy prywatne korporacje.
Anthropic to jedna z czołowych firm rozwijających modele generatywne, znana z deklarowanego podejścia „safety first”. Założona przez badaczy wcześniej związanych z OpenAI, zyskała reputację podmiotu szczególnie wrażliwego na tzw. ryzyka egzystencjalne oraz długoterminowe skutki rozwoju zaawansowanej AI. Właśnie dlatego kontrakt z Departamentem Obrony USA – wart setki milionów dolarów – od początku budził zainteresowanie: czy firma z tak ostro zarysowanym profilem bezpieczeństwa będzie gotowa na kompromisy w świecie wojskowych priorytetów?
Odpowiedź przyniósł dopiero ostry konflikt o warunki dostępu do modeli Anthropic na tajnych sieciach Pentagonu. Resort obrony oczekiwał możliwości wykorzystania systemu Claude „we wszystkich zgodnych z prawem USA celach”, w tym w zastosowaniach operacyjnych. Anthropic postawił jednak dwie nieprzekraczalne „czerwone linie”: zakaz wykorzystania modeli do masowej inwigilacji obywateli oraz zakaz użycia w w pełni autonomicznej broni śmiercionośnej, czyli systemach podejmujących decyzje o użyciu siły bez jakiejkolwiek realnej kontroli człowieka. Według relacji osób zaangażowanych w negocjacje, kierownictwo firmy miało jasno zakomunikować, że tych ograniczeń nie zmieni „niezależnie od konsekwencji”.(apnews.com)
Dla Pentagonu była to zbyt daleko idąca ingerencja prywatnego podmiotu w sferę uważaną za domenę wyłącznych kompetencji państwa. W efekcie Anthropic został oficjalnie oznaczony jako potencjalne „ryzyko łańcucha dostaw”, a resort obrony rozpoczął proces zastępowania jego technologii rozwiązaniami innych dostawców AI. Jak wynika z doniesień prasowych, szybkim beneficjentem tej zmiany stało się OpenAI, które zgodziło się na wdrożenie swoich modeli w wojskowych środowiskach klasyfikowanych, zapowiadając jednocześnie własny „stack bezpieczeństwa” dla zastosowań militarnych.(news.bloomberglaw.com)
To, że w miejsce jednego dostawcy natychmiast wchodzi drugi, nie kończy dyskusji – raczej ją otwiera. Skoro Anthropic stawia twarde ograniczenia na masową inwigilację i autonomiczną broń, a inne podmioty deklarują bardziej elastyczne podejście, pytanie o standardy etyczne i bezpieczeństwa nie jest już abstrakcyjną debatą akademicką, lecz realną konkurencją modeli biznesowych i filozofii rozwoju. Co więcej, dzieje się to w świecie, w którym wielkoskalowa infrastruktura AI staje się elementem geopolityki – czego przykładem są projekty budowy „suwerennych” ekosystemów, jak inicjatywa opisywana w analizie suwerennej infrastruktury AI w Indiach.
Spór Anthropic–Pentagon ma zatem trzy kluczowe wymiary. Po pierwsze, wpisuje się w przyspieszone testy bojowego AI – od wschodniej flanki NATO po teatr działań w Ukrainie. Po drugie, dramatycznie uwidacznia lukę pomiędzy tempem wojskowych wdrożeń a tempem międzynarodowych prac nad regulacjami i „regułami gry” dla militarnej AI. Po trzecie, stawia fundamentalne pytanie: czy prywatne firmy technologiczne mogą – i czy powinny – narzucać państwom ograniczenia wynikające z prawa humanitarnego i etyki, wychodząc ponad minimalne wymagania krajowego prawa?
Od Iraku po Ukrainę: jak AI już zmienia współczesne pole walki
Aby zrozumieć wagę tego sporu, trzeba wyjść poza abstrakcyjne pojęcie „sztucznej inteligencji” i spojrzeć na to, jak konkretne technologie są już wykorzystywane w konfliktach zbrojnych. Militarne zastosowania AI obejmują dziś szerokie spektrum zadań: od analizy danych wywiadowczych, rozpoznania obrazowego z dronów i satelitów, przez planowanie logistyki i wsparcie decyzyjne dla dowódców, po systemy obrony przeciwrakietowej, cyberbezpieczeństwo oraz autonomiczne i półautonomiczne drony bojowe.
W ostatnich latach pojawiły się liczne doniesienia o wykorzystaniu algorytmów AI w konfliktach na Bliskim Wschodzie, w Syrii czy w Ukrainie – zarówno przez państwa zachodnie, jak i Rosję, Izrael czy samą Ukrainę. Analiza danych z pola walki, identyfikacja celów na podstawie obrazu i sygnałów elektronicznych, optymalizacja uderzeń artyleryjskich – to już praktyka, a nie futurystyczna wizja. Eksperci Council on Foreign Relations zwracają uwagę, że granica między klasycznym oprogramowaniem a „inteligentnymi” systemami uczącymi się zaciera się, a wiele armii korzysta z rozwiązań AI nawet wtedy, gdy oficjalnie nie nazywa ich w ten sposób.(hcss.nl)
Na tym tle spór Anthropic z Pentagonem nie dotyczy pytania, czy AI będzie wykorzystywana militarnie – to już przesądzone. Pytanie brzmi raczej: jak daleko można się posunąć w delegowaniu kluczowych decyzji wojennych algorytmom? Gdzie przebiega granica między „wsparciem analitycznym”, a oddaniem maszynom faktycznej kontroli nad śmiercionośną siłą?
Szczególnie kontrowersyjna jest kategoria tzw. autonomicznej broni śmiercionośnej (LAWS – lethal autonomous weapon systems). Dla laika oznacza to systemy, które po aktywacji same wybierają i atakują cele, bez bieżącej, realnej kontroli człowieka. Nie chodzi wyłącznie o autonomiczny lot drona czy automatyczne celowanie, ale o pełen łańcuch: wykryj – sklasyfikuj – zdecyduj – zaatakuj. To właśnie tego typu systemy znajdują się w centrum najbardziej gorących sporów prawnych i etycznych w ONZ i w środowiskach wojskowych.
Problem polega na tym, że znaczna część obecnych wdrożeń funkcjonuje w swoistej „szarej strefie”. Formalnie systemy AI mają jedynie wspierać człowieka – podpowiadać scenariusze działania, wskazywać cele, priorytetyzować zagrożenia. W praktyce jednak, przy ogromnej ilości danych, presji czasu i rosnącej złożoności modeli, decyzja dowódcy może sprowadzać się do szybkiego zatwierdzenia jednej z rekomendacji algorytmu, bez realnej możliwości jej weryfikacji. Symboliczny „człowiek w pętli” może wtedy pełnić raczej funkcję formalnego stempla niż faktycznego strażnika odpowiedzialności.
Rozwój dużych modeli językowych i systemów zdolnych pisać, analizować i audytować kod lepiej niż wielu programistów dodatkowo zwiększa poziom ryzyka. Jeżeli – jak pokazują analizy z tekstu AI jest w stanie generować kod bardziej efektywnie niż część inżynierów – to ten sam skok jakościowy może zostać przełożony na systemy ofensywne: zdolne szybciej planować ataki cybernetyczne, analizować słabe punkty obrony przeciwnika czy optymalizować kampanie uderzeń kinetycznych.
W tym szybko zmieniającym się krajobrazie uwagę przyciągają szczególnie państwa frontowe NATO – w tym Łotwa i inne kraje bałtyckie – które stały się swoistym „laboratorium” eksperymentów z wojskową AI. To tam technologie wsparcia decyzyjnego i cyberobrony są testowane w warunkach ciągłej presji ze strony Rosji, zarówno w wymiarze militarnym, jak i informacyjnym.
Łotwa jako poligon cyfrowej wojny: testy AI na wschodniej flance NATO
Łotwa, Litwa i Estonia od lat znajdują się w centrum zainteresowania strategów bezpieczeństwa. Położone na styku NATO i Rosji, doświadczają regularnych kampanii dezinformacyjnych, prób cyberataków na infrastrukturę krytyczną oraz presji militarnej w regionie Morza Bałtyckiego. Jednocześnie należą do najbardziej zdigitalizowanych społeczeństw w Europie, z zaawansowaną administracją elektroniczną i wysokim poziomem kompetencji cyfrowych.
To połączenie czynników – geopolitycznego położenia, ciągłych zagrożeń hybrydowych i wysokiej dojrzałości cyfrowej – sprawiło, że państwa bałtyckie stały się naturalnym miejscem dla eksperymentów z algorytmicznym wsparciem decyzji militarnych i cyberobronnych. Raporty i policy briefs przygotowywane przy okazji The Riga Conference oraz prac takich instytucji jak Boston Global Forum opisują, jak w praktyce wyglądają testy systemów analizujących w czasie rzeczywistym dane wywiadowcze, ruchy wojsk, aktywność w cyberprzestrzeni i informacje z otwartych źródeł.(bostonglobalforum.org)
W uproszczeniu, chodzi o narzędzia, które mają „ogląd całości” większy niż jakikolwiek sztab: integrują dane z radarów, satelitów, sieci teleinformatycznych, mediów społecznościowych, a następnie generują rekomendacje – od propozycji rozmieszczenia wojsk, przez wskazanie kluczowych węzłów infrastruktury do ochrony, aż po scenariusze kontrataków w cyberprzestrzeni.
W tym środowisku rozwijane są zarówno narzędzia defensywne, jak i ofensywne. Po stronie obrony są to m.in. systemy wczesnego wykrywania cyberataków, automatyczna klasyfikacja incydentów bezpieczeństwa, symulacje ścieżek eskalacji konfliktu czy identyfikacja słabych punktów w łańcuchach dostaw. Po stronie ofensywnej – algorytmy wskazujące cele o największym znaczeniu strategicznym, analizujące, gdzie uderzenie informacyjne lub cyberatak może przynieść przeciwnikowi największe szkody przy minimalnym ryzyku odwetu.
W praktyce granica między „wsparciem” a „decydowaniem” zaciera się wyjątkowo łatwo. Wyobraźmy sobie realistyczny scenariusz: system AI analizuje rosnącą aktywność wrogich grup hakerskich oraz ruchy wojsk po drugiej stronie granicy. Na tej podstawie generuje rekomendację zmasowanego, prewencyjnego cyberataku na infrastrukturę dowodzenia przeciwnika, argumentując, że opóźni to potencjalną operację militarną. Z punktu widzenia maszyny to „optymalne” rozwiązanie: minimalizuje ryzyko dla własnych sił i zwiększa szanse powodzenia.
Dla ludzi odpowiedzialnych za prawo międzynarodowe i politykę bezpieczeństwa sytuacja wygląda już mniej jednoznacznie. Czy taki prewencyjny cyberatak to jeszcze działanie obronne, czy już casus belli? Jak zastosować zasadę proporcjonalności, skoro skutki uboczne ataku mogą rozlać się na infrastrukturę cywilną? Kto ponosi odpowiedzialność – państwo, dowódca, czy twórcy systemu, który zasugerował eskalacyjny scenariusz?
Z lokalnej perspektywy państw bałtyckich bilans korzyści i ryzyk jest skomplikowany. Z jednej strony otrzymują dostęp do najnowocześniejszych narzędzi obronnych, zwiększających ich bezpieczeństwo wobec silniejszego sąsiada. Z drugiej – stają się poligonem doświadczalnym dla rozwiązań, które później mogą zostać przeniesione na inne teatry działań, być może z mniejszymi ograniczeniami politycznymi czy etycznymi.
To właśnie w takich kontekstach widać, jak ważne są „czerwone linie” podobne do tych, których broni Anthropic. Jeśli zakazy masowej inwigilacji czy autonomicznej broni nie zostaną wpisane w architekturę systemów od samego początku – jako nieprzekraczalne wymogi projektowe – późniejsze próby narzucenia ich politycznie mogą okazać się iluzoryczne. Kod, raz wdrożony w infrastrukturę wojskową, trudno „oduczyć” złych nawyków.
NATO, algorytmiczne wsparcie decyzji i iluzja „człowieka w pętli”
Łotwa i kraje bałtyckie są tylko jednym z elementów szerszej układanki. NATO jako całość coraz intensywniej eksperymentuje z wykorzystaniem AI w planowaniu i prowadzeniu operacji. Ćwiczenia sztabowe z użyciem systemów rekomendacyjnych, symulacje konfliktów w cyberprzestrzeni i przestrzeni kosmicznej, narzędzia do analityki wywiadowczej czy optymalizacji logistyki sił sojuszniczych – to dziś standard w agendzie wielu natowskich ośrodków badawczych.
Kluczowym pojęciem staje się „algorytmiczne wsparcie decyzji”. Są to systemy, które formalnie nie zastępują dowódcy, ale generują rekomendacje oparte na analizie ogromnych wolumenów danych, często niedostępnych wprost dla człowieka. Algorytmy integrują informacje z różnych źródeł, oceniają ryzyka, symulują możliwe scenariusze, a następnie przedstawiają dowódcy jedną lub kilka opcji działania, uporządkowanych według „optymalności” w rozumieniu modelu.
W warunkach presji czasowej i informacyjnej, decyzje dowódców mogą w praktyce sprowadzać się do akceptacji lub odrzucenia scenariusza wygenerowanego przez AI. Z punktu widzenia prawa międzynarodowego i etyki wojskowej pojawia się pytanie, na ile „człowiek w pętli” jest w takim układzie realnym gwarantem odpowiedzialności, a na ile iluzją. Jeżeli oficer nie ma czasu ani narzędzi, by zakwestionować analizę algorytmu, czy jego podpis pod rozkazem rzeczywiście oznacza świadomą decyzję?
Badania i symulacje prowadzone zarówno w środowisku natowskim, jak i w niezależnych ośrodkach akademickich, pokazują, że autonomiczne lub półautonomiczne systemy pozostawione zbyt dużą swobodą mogą eskalować konflikt w nieprzewidywalny sposób – aż po poziom użycia broni masowego rażenia. Scenariusze, które jeszcze dekadę temu wydawały się domeną science-fiction, dziś są przedmiotem poważnych analiz i ćwiczeń.(nato.int)
NATO przyjęło własną strategię AI oraz zasady „odpowiedzialnego użycia”, akcentując takie wartości jak legalność, odpowiedzialność, przejrzystość, niezawodność i możliwość kontroli. Państwa członkowskie mają jednak własne procedury, tradycje prawne i priorytety strategiczne. Dla jednych zasada proporcjonalności może oznaczać daleko idącą powściągliwość, dla innych – większą akceptację ryzyka ofiar cywilnych w imię skuteczności operacji. Te różnice ułatwiają presję na to, by algorytmiczne narzędzia maksymalizowały efekt militarnej przewagi, nawet jeśli rodzi to pytania etyczne.
Równolegle rośnie świadomość, że same deklaracje „odpowiedzialnego użycia” są niewystarczające bez twardych, technicznych standardów testowania, weryfikacji i certyfikacji systemów AI. W świecie cyberbezpieczeństwa trwają już prace nad wyspecjalizowanymi benchmarkami dla agentów AI, czego przykładem jest opisywany w analizie benchmark EVMbench dla agentów poświęconych bezpieczeństwu smart kontraktów. Jeśli tak zaawansowane i wysublimowane testy są wymagane w obszarze ochrony kodu na blockchainie, tym bardziej oczywiste staje się, że podobne – a wręcz bardziej rygorystyczne – mechanizmy będą potrzebne dla militarnej AI, której decyzje mogą decydować o życiu tysięcy ludzi.
Czy prywatna firma może ograniczać prawo do wojny? Wymiar prawny i etyczny sporu Anthropic–Pentagon
Wróćmy do samego jądra konfliktu Anthropic–Pentagon. Resort obrony domagał się pełnego dostępu do modeli firmy na tajnych sieciach, bez trwałych ograniczeń dotyczących dopuszczalnych zastosowań. Kluczowym punktem sporu stały się zapisy polityki użytkowania Anthropic, które wykluczały wykorzystanie modeli do masowej inwigilacji obywateli Stanów Zjednoczonych oraz w systemach w pełni autonomicznej broni śmiercionośnej. Według relacji medialnych Pentagon naciskał na usunięcie bądź złagodzenie tych zapisów, ostrzegając, że w przeciwnym razie kontrakt zostanie zerwany, a firma może zostać oznaczona jako ryzyko łańcucha dostaw lub nawet objęta szczególnymi środkami na podstawie przepisów o bezpieczeństwie narodowym. Anthropic odmówił, publicznie deklarując, że „nie może w dobrej wierze” zgodzić się na takie żądania.(apnews.com)
Argument Pentagonu jest z pozoru prosty: użycie technologii wojskowej powinno podlegać przede wszystkim prawu krajowemu, konstytucji i międzynarodowym zobowiązaniom państwa, a nie wewnętrznym regulaminom prywatnych firm. W tym ujęciu to państwo – działając w ramach prawa – decyduje, kiedy i w jakim zakresie sięga po dostępne narzędzia, a dostawca ma dostarczyć technologię zgodnie z umową, nie narzucając własnych „standardów etycznych”.
Kontrargument Anthropic odwołuje się zarówno do etyki, jak i do współczesnego rozumienia odpowiedzialności korporacyjnej. Firma twierdzi, że nie tylko ma prawo, ale wręcz obowiązek nałożyć ograniczenia na wykorzystanie swoich produktów, jeśli uznaje, że pewne zastosowania mogą prowadzić do masowych naruszeń praw człowieka lub tworzyć nieakceptowalne ryzyka egzystencjalne dla ludzkości. Jest to interpretacja zgodna z duchem Wytycznych ONZ dotyczących biznesu i praw człowieka, które wymagają od przedsiębiorstw przeprowadzania należytej staranności (due diligence) w obszarze praw człowieka, nawet gdy działają w zgodzie z prawem krajowym.
Z perspektywy prawa międzynarodowego pojawiają się co najmniej trzy węzłowe problemy. Po pierwsze, w jakim zakresie prywatni dostawcy technologii mogą być współodpowiedzialni za ewentualne naruszenia międzynarodowego prawa humanitarnego (IHL) i praw człowieka, jeśli wiedzą lub powinni wiedzieć, że ich produkty są używane w sposób prowadzący do takich naruszeń. Po drugie, jak rozumieć wymóg „należytej staranności” w sytuacji, gdy państwo jawnie domaga się funkcjonalności, które w ocenie dostawcy stwarzają wysokie ryzyko poważnych naruszeń. Po trzecie, czy polityki użytkowania największych firm AI mogą de facto podnosić globalny standard ochrony cywilów ponad poziom, jaki wynikałby z minimalnych interpretacji prawa międzynarodowego przez poszczególne państwa.
Na drugim biegunie widzimy podejście innych firm technologicznych. OpenAI – również współpracujące z Pentagonem – akcentuje, że zbuduje własny „safety stack” dla zastosowań militarnych, przekonując, iż jego zabezpieczenia mogą być bardziej rygorystyczne niż rozwiązania konkurencji, a jednocześnie deklaruje gotowość do szerokiej współpracy z resortem obrony. Według analiz mediów, umowy tej firmy z Pentagonem zawierają odwołania do istniejącego prawa oraz przewidują pewne techniczne ograniczenia, ale nie wprowadzają równie twardych, kontraktowych zakazów jak w przypadku Anthropic – np. w obszarze masowej inwigilacji obywateli.(news.bloomberglaw.com)
Dla rządów, organizacji międzynarodowych i NGO oznacza to nową sytuację: polityka bezpieczeństwa militarnej AI nie jest już tylko przedmiotem negocjacji w Genewie czy Nowym Jorku, ale również skutkiem siły przetargowej firm w kontraktach B2G oraz ich wewnętrznych regulaminów. Jednocześnie państwa próbują zwiększyć kontrolę nad infrastrukturą AI, aby ograniczyć zależność od „krnąbrnych” dostawców – co widzimy zarówno w USA, jak i w innych regionach świata, gdzie projekty budowy lokalnej, „suwerennej” infrastruktury, takie jak inicjatywa opisana w tekście o indyjskiej infrastrukturze AI tworzonej wspólnie przez OpenAI i Tata, mają także wymiar regulacyjny i strategiczny.
Na horyzoncie wyłaniają się pytania, z którymi będą musieli zmierzyć się prawnicy, regulatorzy i NGO: czy potrzebujemy nowych kategorii odpowiedzialności dla dostawców AI, porównywalnych z odpowiedzialnością producentów broni? Czy „klauzule humanitarne” – wprost zakazujące niektórych zastosowań technologii – powinny stać się standardowym elementem kontraktów obronnych, czy też zostawić państwom swobodę interpretacji ich zobowiązań na gruncie IHL?
Międzynarodowe „reguły gry” dla militarnej AI: od ONZ po inicjatywy regionalne
Spór Anthropic–Pentagon unaocznia rzecz oczywistą, choć często wypieraną: globalna architektura regulacji militarnej AI nie nadąża za rzeczywistością. Dyskusje na forum ONZ, szczególnie w ramach Konwencji o niektórych broniach konwencjonalnych (CCW), trwają od lat. Państwa debatują nad statusem autonomicznych systemów uzbrojenia, ale do dziś nie udało się uzgodnić wiążącego traktatu zakazującego lub ograniczającego tego typu broń, głównie z powodu sprzeciwu kluczowych mocarstw wojskowych.(en.wikipedia.org)
W toku tych debat wykrystalizowało się kilka głównych podejść. Pierwsze to postulat pełnego zakazu w pełni autonomicznej broni śmiercionośnej – wspierany przez liczne NGO i część państw, które wskazują na fundamentalny charakter prawa do życia i ryzyka niekontrolowanej eskalacji. Drugie podejście opiera się na koncepcji „znaczącej kontroli człowieka” (meaningful human control) nad krytycznymi decyzjami o użyciu siły – dopuszczając szerokie wykorzystanie AI, ale wymagając, aby człowiek miał realną możliwość zrozumienia i zakwestionowania działania systemu. Trzecie podejście, preferowane przez część mocarstw, stawia na niewiążące „kodeksy postępowania” i wytyczne techniczne, w tym standardy testowania, walidacji i audytu militarnych systemów AI.
Konflikt między Anthropic a Pentagonem w praktyce pokazuje lukę między tymi koncepcjami a praktyką. Skoro nawet tak zaawansowane technologicznie państwo jak USA ma problem z zaakceptowaniem twardych „czerwonych linii” prywatnego dostawcy, trudno oczekiwać szybkiego i ambitnego porozumienia na poziomie globalnym. Jednocześnie rośnie presja regionalna i sektorowa. NATO rozwija własne zasady odpowiedzialnego użycia AI, Unia Europejska w ramach regulacji cywilnych stara się ograniczać niektóre zastosowania – jak masową inwigilację biometryczną – a liczne think tanki, m.in. Chatham House, ostrzegają, że brak spójnych reguł dla militarnej AI może podważyć szersze wysiłki na rzecz globalnego bezpieczeństwa technologicznego.(nato.int)
Na tym tle można zaproponować roboczy katalog „reguł gry” dla militarnej AI, który mógłby służyć jako punkt odniesienia dla rządów i organizacji międzynarodowych:
- zakaz wykorzystania AI do masowej inwigilacji obywateli, zarówno w kraju, jak i za granicą, w sposób niezgodny z podstawowymi standardami praw człowieka;
- wyłączenie AI z procesu samodzielnego wyboru i ataku celów bez znaczącej, realnej kontroli człowieka nad decyzjami o użyciu śmiercionośnej siły;
- obowiązek przejrzystego logowania, śledzenia i audytu decyzji podejmowanych z udziałem algorytmów, tak aby możliwe było przypisanie odpowiedzialności;
- minimalne, wspólne standardy testowania, walidacji i „red-teamingu” systemów AI przed ich wdrożeniem w środowisku bojowym;
- mechanizmy międzynarodowego nadzoru – np. panel ekspertów przy ONZ lub innej organizacji – umożliwiające ocenę zgodności systemów z przyjętymi zasadami.
Takie „reguły gry” pozostaną jednak martwe, jeśli nie zostaną uzupełnione o techniczne benchmarki i procedury testowe. Analogicznie jak w przypadku wspomnianego benchmarku EVMbench dla agentów AI w cyberbezpieczeństwie, świat militarny będzie musiał wypracować własne, być może niejawne, „benchmarki bezpieczeństwa” dla systemów decydujących o użyciu siły. Bez tego abstrakcyjne deklaracje o „odpowiedzialnym użyciu” będą trudne do zweryfikowania w praktyce.
Co dalej z militarną AI? Rekomendacje dla rządów, NGO i biznesu technologicznego
Spór Anthropic–Pentagon to coś więcej niż doraźny konflikt kontraktowy. Stał się symbolem szerszego zderzenia wizji: kto wyznacza granice militarnej AI i jaką rolę odgrywają w tym prywatne firmy? Równolegle państwa frontowe i NATO rozwijają algorytmiczne laboratoria wojny – od Łotwy po inne odcinki wschodniej flanki – gdzie w praktyce testowane są systemy wsparcia decyzji i cyberobrony. Całość dzieje się w sytuacji, w której międzynarodowe „reguły gry” dla militarnej AI dopiero powstają, a prawo usiłuje dogonić tempo innowacji technologicznych.
Co z tego wynika dla głównych aktorów?
Dla rządów i organizacji międzynarodowych kluczowe jest, aby minimalne standardy bezpieczeństwa i ochrony praw człowieka były wpisywane bezpośrednio w kontrakty z dostawcami AI. Oznacza to nie tylko ogólne odwołania do prawa humanitarnego, ale także konkretne, technicznie osadzone wymagania: zakaz określonych funkcjonalności, obowiązek audytowalności, procedury wyłączania systemów w sytuacjach nieprzewidzianych. Rządy powinny prowadzić jawne konsultacje z NGO i niezależnymi ekspertami przy projektowaniu polityk militarnej AI oraz inwestować w niezależne badania nad ryzykami, zamiast polegać wyłącznie na ocenach dostawców.
Organizacje pozarządowe z kolei stoją przed wyzwaniem przejścia od ogólnych apeli do precyzyjnych postulatów. W praktyce oznacza to domaganie się konkretnych mechanizmów – takich jak publiczne (w miarę możliwości) raporty z testów systemów wysokiego ryzyka, przejrzyste definicje „znaczącej kontroli człowieka” czy obowiązkowe procedury audytu – a także rozwijanie własnych kompetencji technicznych. Bez zrozumienia realnych możliwości i ograniczeń współczesnych modeli – opisanych choćby w tekstach o generowaniu kodu przez AI czy o architekturze infrastruktury AI – NGO nie będą w stanie być równorzędnym uczestnikiem debaty.
Dla firm technologicznych lekcja ze sporu Anthropic–Pentagon jest równie jasna. Po pierwsze, potrzebne są jasne, publicznie komunikowane „czerwone linie” dotyczące zastosowań wojskowych, tak aby rządy i społeczeństwa wiedziały, na co firma się nie zgodzi. Po drugie, inwestycje w transparentność modeli, zespoły ds. bezpieczeństwa i wewnętrzne mechanizmy kontroli nie są już „dobrą praktyką”, lecz warunkiem odpowiedzialnego uczestnictwa w rynku. Po trzecie, warto angażować się w tworzenie branżowych standardów odpowiedzialnego użycia AI także w sektorze obronnym, zamiast liczyć na to, że regulacje powstaną wyłącznie poza firmą.
W perspektywie europejskiej szczególnego znaczenia nabiera rozwój „suwerennej” infrastruktury AI, która pozwoli UE i państwom NATO narzucać standardy bezpieczeństwa zgodne z wartościami demokratycznymi, a nie wyłącznie kopiować praktyki innych mocarstw. Przykład budowy infrastruktury AI w Indiach we współpracy z globalnymi korporacjami pokazuje, że podobne dylematy – dotyczące kontroli nad danymi, infrastrukturą i standardami – czekają również Europę.
Na koniec warto zauważyć, że linia frontu w epoce generatywnej sztucznej inteligencji nie przebiega już wyłącznie na mapach, ale również w regulaminach użytkowania, fragmentach kodu i negocjacjach między ministrami obrony a prezesami firm technologicznych. To, jakie decyzje zapadną dziś w Waszyngtonie, Rydze, Brukseli czy Warszawie, zadecyduje o tym, czy militarna AI stanie się narzędziem ograniczającym przemoc, dzięki lepszej precyzji i kontroli, czy też katalizatorem nowych, trudniejszych do opanowania wojen. W tym sensie spór Anthropic–Pentagon jest mniej epizodem, a bardziej rachunkiem sumienia całego systemu odpowiedzialności za wojnę w erze algorytmów.

