Dlaczego współpraca Big Tech z wojskiem staje się kluczowym testem dla sztucznej inteligencji
Sztuczna inteligencja jeszcze kilka lat temu kojarzyła się głównie z rekomendacjami filmów, chatbotami obsługującymi infolinie czy filtrami w mediach społecznościowych. Dziś to samo narzędzie staje się jednym z głównych pól sporu między polityką, biznesem a etyką technologii. W centrum tego sporu znalazły się największe laboratoria AI – przede wszystkim OpenAI i Anthropic – oraz struktury obronne Stanów Zjednoczonych i całego NATO.
Pod pojęciem „bojowe AI” nie kryje się jedynie wizja humanoidalnych robotów walczących na froncie. W praktyce chodzi przede wszystkim o systemy wspierające decyzje dowódców, analizę ogromnych ilości danych wywiadowczych, planowanie misji, zarządzanie logistyką oraz obronę cybernetyczną. Algorytmy uczenia maszynowego potrafią wychwycić wzorce w danych satelitarnych, przeanalizować tysiące raportów w kilka sekund czy zasymulować różne scenariusze pola walki. To realne, wdrażane dziś rozwiązania, a nie scenariusz filmu science fiction.
Spór wokół Anthropic pokazał, jak szybko ten obszar z niszy stał się strategicznym węzłem konfliktu interesów. Pentagonalne instytucje oczekiwały szerszego, także ofensywnego wykorzystania modeli tej firmy – w tym w obszarach zbliżających się do masowej inwigilacji i projektowania wysoko zautomatyzowanych systemów broni. Kierownictwo Anthropic, z Dario Amodeiem na czele, odmówiło zniesienia części wewnętrznych ograniczeń bezpieczeństwa. W efekcie administracja USA miała ograniczyć dostęp tej technologii w federalnych instytucjach, podczas gdy relacje Pentagonu z OpenAI zaczęły się wyraźnie zacieśniać. Sam Altman w wywiadach dla mediów, takich jak reuters.com, przyznawał, że dzieli wiele obaw dotyczących militarnego użycia AI, ale widzi sens zaangażowania „od środka”, aby kształtować bezpieczne standardy.
Dla zachodnich demokracji to coś więcej niż spór o jeden kontrakt. To test, jak wygląda praktyczne sprzężenie pomiędzy „foundation models” – dużymi, ogólnymi modelami językowymi i multimodalnymi – a aparatem wojskowym. Jakie są ramy bezpieczeństwa i kontroli politycznej? Gdzie przebiegają granice użycia algorytmów na polu walki? I jak sojusznicy w NATO próbują dziś zarysować podział między „AI w zapleczu” a „AI na spuście”, czyli systemami wspierającymi a systemami wywierającymi bezpośredni wpływ na użycie śmiercionośnej siły?
Na ten obraz nakłada się szersze tło technologiczne. Rozwój sztucznej inteligencji jest nierozerwalnie związany z rosnącą mocą obliczeniową i gigantycznymi inwestycjami infrastrukturalnymi: centrami danych, łańcuchami dostaw wyspecjalizowanych chipów, a nawet planami „gigafabryk” AI w Europie. W osobnym materiale „Chińskie gigafabryki AI w Europie: szansa rozwojowa czy strategiczne zagrożenie dla Polski?” pokazano, że walka o infrastrukturę obliczeniową staje się kluczowym frontem geopolityki. W przypadku „bojowego AI” ten wymiar nabiera jeszcze większego znaczenia: to, kto kontroluje centra danych i łańcuchy dostaw, wprost przekłada się na realne zdolności wojskowe.
Od eksperymentów do kontraktów: jak Pentagon i NATO budują ekosystem AI
Dla osób niezajmujących się na co dzień obronnością pojęcie „sztuczna inteligencja w wojsku” często oznacza w wyobraźni samosterujące drony lub autonomiczne roboty – „zabójców” decydujących za człowieka. W rzeczywistości większość zastosowań, które dziś rozwijają Pentagon i NATO, ma znacznie bardziej analityczny i zapleczowy charakter. AI wspiera przetwarzanie danych ISR (Intelligence, Surveillance, Reconnaissance), pomaga w systemach wsparcia decyzji dowódców, automatyzuje logistykę czy wzmacnia cyberobronę. To nadal element „bojowego AI”, ale funkcjonujący głównie jako narzędzie inteligentnej analityki, a nie bezpośredni operator broni.
Amerykański Departament Obrony od lat próbuje przyciągać do współpracy prywatny sektor technologiczny, szczególnie Dolinę Krzemową. Powstawały programy innowacyjne, takie jak jednostki DIU (Defense Innovation Unit), liczne konkursy, granty i „piaskownice” technologiczne. Początkowo dominowały projekty pilotażowe, w których testowano wykorzystanie uczenia maszynowego w wąskich, ściśle nadzorowanych zastosowaniach. Po roku 2020, wraz z dojrzewaniem modeli generatywnych oraz gwałtownym wzrostem napięć geopolitycznych, Pentagon przeszedł jednak do fazy znacznie poważniejszych kontraktów z twórcami zaawansowanych systemów AI.
Równolegle NATO zaczęło precyzyjniej definiować miejsce AI w swoich dokumentach strategicznych. W oficjalnych deklaracjach sojusz podkreśla, że „AI w strategii NATO” musi być rozwijana odpowiedzialnie, z poszanowaniem międzynarodowego prawa humanitarnego i praw człowieka. Istotnym elementem jest interoperacyjność – zdolność państw członkowskich do współdzielenia danych, modeli i standardów bezpieczeństwa, tak aby systemy AI różnych armii mogły ze sobą współpracować, a nie tworzyć mozaikę niekompatybilnych rozwiązań.
W tej układance idealnie odnajdują się laboratoria foundation models, takie jak OpenAI czy Anthropic. Dysponują skalowalnymi modelami, które można szybko dostosowywać do nowych zadań, posiadają rozbudowane zespoły ds. bezpieczeństwa i etyki, a także inżynierów gotowych do pracy bezpośrednio w instytucjach rządowych. Z perspektywy Pentagonu i NATO współpraca z takimi podmiotami pozwala „podłączyć się” do czołówki innowacji bez konieczności budowania wszystkiego od zera we własnych strukturach.
Tym silniej widać jednak narastające napięcie. Z jednej strony decydenci wojskowi argumentują, że przewaga technologiczna nad Chinami i Rosją wymaga śmiałego wdrażania AI, także w sektorze obronności. Z drugiej – rośnie obawa, że przyspieszenie nastąpi kosztem demokratycznej kontroli i przejrzystości. Współpraca „Pentagon i laboratoria AI” staje się testem, czy instytucje państwowe są w stanie narzucić twarde ramy użycia, czy też to giganci technologiczni de facto zadecydują, jak wygląda praktyczne wykorzystanie AI w strategii bezpieczeństwa.
Case study Anthropic: kiedy etyka AI zderza się z żądaniami Pentagonu
Spór Anthropic z amerykańskim Departamentem Obrony dobrze ilustruje, jak „etyka AI w wojsku” przestaje być abstrakcyjnym hasłem, a staje się konkretnym polem konfrontacji. Na wysokim poziomie konflikt sprowadzał się do jednego pytania: jak daleko laboratorium AI jest gotowe pójść w dostosowywaniu swoich modeli do potrzeb wojska?
Z relacji osób znających kulisy rozmów wynika, że Pentagon naciskał na złagodzenie części wewnętrznych ograniczeń modeli Anthropic. Chodziło o scenariusze wykorzystania w kontekstach masowej inwigilacji, zaawansowanego profilowania oraz projektowania systemów broni, które mogłyby działać w dużej mierze autonomicznie. Kierownictwo firmy, odwołując się do własnego podejścia określanego jako „konstytucyjne AI”, odmówiło. W praktyce oznaczało to, że modele miały pozostać niezdolne do generowania treści wspierających łamanie prawa humanitarnego czy naruszanie praw człowieka, nawet jeśli klientem jest instytucja państwowa.
„Konstytucyjne AI” to próba ujęcia bezpieczeństwa modeli w zestaw jasnych, wewnętrznych zasad. Zamiast jedynie reagować na regulacje zewnętrzne, firma wpisuje w proces trenowania i nadzorowania algorytmów katalog norm etycznych. Modele uczone są, by odrzucać żądania generowania instrukcji do przeprowadzania nielegalnych działań wojennych, działań terrorystycznych czy masowego nadzoru wykraczającego poza demokratyczne standardy. Dla laika można to porównać do „wewnętrznej konstytucji” algorytmu, która ogranicza jego odpowiedzi nawet wtedy, gdy użytkownik – lub zamawiający – chce pójść dalej.
Decyzja władz USA o zablokowaniu technologii Anthropic w części agencji federalnych była więc silnym sygnałem dla całej branży. Jeżeli firma stawia twarde granice, może stracić istotne kontrakty, ale jednocześnie buduje reputację podmiotu broniącego zasad bezpieczeństwa również wobec politycznej presji. Dla polskich odbiorców zajmujących się AI to studium przypadku o fundamentalnym znaczeniu: test, czy laboratoria modeli językowych będą gotowe przeciwstawić się żądaniom rozszerzającym „granice użycia modeli językowych w obronności”.
Warto spojrzeć na ten konflikt z dwóch perspektyw. Z militarnego punktu widzenia argument jest prosty: jeśli technologia istnieje, prędzej czy później wykorzysta ją także przeciwnik. Skoro potencjalny wróg może rozwijać ofensywną AI bez norm i ograniczeń, ograniczanie własnych modeli wydaje się narażaniem bezpieczeństwa. Z perspektywy obywatelskiej pojawia się jednak kontrargument: potrzebujemy firm, które nie zgodzą się na każdą formę automatyzacji przemocy i nie oddadzą państwu narzędzi masowej inwigilacji tylko dlatego, że „ktoś inny też tak zrobi”. To napięcie będzie towarzyszyć debacie o „konstytucyjnym AI” jeszcze przez wiele lat.
Dlaczego OpenAI wybrało inną ścieżkę: bezpieczeństwo, ale z kontraktem w tle
OpenAI zajmuje w tym sporze odmienną pozycję. Sam Altman wielokrotnie podkreślał, że obawy Anthropic dotyczące zbyt ofensywnego wykorzystania AI są w dużej mierze uzasadnione. Jednocześnie firma zdecydowała się przyjąć ofertę współpracy z Pentagonem, argumentując, że obecność przy stole pozwala lepiej kształtować standardy bezpieczeństwa. W efekcie, gdy Anthropic traci część dostępu do kontraktów rządowych, OpenAI staje się jednym z głównych partnerów AI departamentu obrony.
W oficjalnych wypowiedziach przedstawiciele OpenAI akcentują kilka filarów bezpieczeństwa tej współpracy. Po pierwsze, wysyłanie inżynierów do pracy na miejscu w strukturach Pentagonu, aby móc na bieżąco monitorować sposób użycia modeli i wdrażać dodatkowe warstwy kontroli. Po drugie, wprowadzenie audytów oraz mechanizmów ścisłego nadzoru nad przypadkami użycia: deklarowanym celem jest wspieranie analizy danych, planowania logistycznego czy cyberobrony, a nie bezpośrednie sterowanie autonomiczną bronią. Po trzecie, rozwijanie własnych polityk bezpieczeństwa, które mają uniemożliwić wykorzystanie modeli do łamania prawa międzynarodowego.
Ta strategia niesie jednak istotne konsekwencje polityczne. W momencie, gdy Anthropic staje się symbolem „twardej etyki”, OpenAI zyskuje realną pozycję „głównego partnera AI” Pentagonu. To wzmacnia firmę biznesowo, ale też obciąża ją odpowiedzialnością za skutki militarnego użycia modeli. Organizacje broniące praw człowieka wskazują, że nawet przy rozbudowanych zabezpieczeniach trudno jest zachować pełną przejrzystość, gdy część projektów jest objęta klauzulą tajności. Dla części państw NATO, w tym europejskich sojuszników, rodzi to pytania: czy chcemy opierać kluczowe komponenty „AI w strategii NATO” na rozwiązaniach jednego, prywatnego podmiotu z USA?
Warto zauważyć, że te same technologie, które w sektorze cywilnym zwiększają produktywność i wspierają organizację pracy, w środowisku wojskowym mogą zostać wykorzystane do planowania misji, koordynacji logistyki czy zarządzania informacją na polu walki. Przykładem są systemy zarządzania złożonymi zadaniami oparte na OpenAI. W firmach pomagają projektować procesy, przydzielać zadania i analizować ryzyka. W armii podobne architektury mogą optymalizować łańcuch dostaw sprzętu, priorytetyzować cele rozpoznania czy rekomendować scenariusze rozmieszczenia sił. Różnica polega nie na technologii, lecz na konsekwencjach decyzji wynikających z jej użycia.
Dla części państw NATO współpraca OpenAI z Pentagonem jest więc równocześnie szansą i ostrzeżeniem. Szansą, bo umożliwia dostęp do najbardziej zaawansowanych narzędzi AI, oraz ostrzeżeniem, bo pokazuje, jak łatwo sektor obronny może uzależnić się od decyzji kilku prywatnych firm, których priorytety nie zawsze muszą pokrywać się z celami demokratycznej kontroli.
Polityczne i prawne granice „bojowego AI” w NATO: od doktryn do praktyki na polu walki
Prawo międzynarodowe regulujące prowadzenie działań zbrojnych opiera się na kilku fundamentalnych zasadach, takich jak rozróżnienie celów cywilnych i wojskowych, zasada proporcjonalności czy odpowiedzialność dowódców za wydane rozkazy. W teorii są one jasne, w praktyce – szczególnie w warunkach nowoczesnego, sieciocentrycznego pola walki – ich stosowanie bywa trudne. Wprowadzenie AI dodatkowo komplikuje sytuację: decyzje są podejmowane szybciej, na podstawie większych ilości danych, z udziałem algorytmów, których wewnętrzne mechanizmy działania są dla wielu decydentów słabo zrozumiałe.
NATO w swoich oficjalnych dokumentach podkreśla, że rozwój „sztucznej inteligencji w wojsku” musi być zgodny z prawem międzynarodowym oraz zasadami odpowiedzialności dowódców. Sojusz wprowadza koncepcję „meaningful human control” – znaczącej, sensownej kontroli człowieka nad decyzją o użyciu śmiercionośnej siły. W prostych słowach oznacza to, że to człowiek, a nie algorytm, powinien podejmować ostateczną decyzję o ataku, mając realną możliwość zrozumienia rekomendacji systemu i jej zakwestionowania.
W praktyce państwa NATO przyjmują jednak różne akcenty. Część krajów Europy Zachodniej prezentuje podejście ostrożne, kładąc nacisk na ograniczanie rozwoju broni w pełni autonomicznej i silne mechanizmy kontroli. Stany Zjednoczone, jednocześnie deklarując przywiązanie do „meaningful human control”, intensywnie inwestują w „AI w strategii NATO” jako kluczowy element przewagi nad rywalami. Państwa frontowe – takie jak Polska czy kraje bałtyckie – patrzą na „bojowe AI” w sposób pragmatyczny: jako na kolejny poziom odstraszania wobec Rosji i instrument wzmacniający zdolność reagowania na zagrożenia hybrydowe.
Różnicę między „AI w zapleczu” a „AI na spuście” dobrze widać, gdy porównamy systemy służące do analizy danych wywiadowczych czy logistyki z systemami sterującymi uzbrojeniem. W pierwszej kategorii mieszczą się rozwiązania przetwarzające dane satelitarne, monitorujące ruch w cyberprzestrzeni czy optymalizujące zaopatrzenie wojsk. Druga kategoria to systemy, które mogą samodzielnie wybierać i atakować cele, co budzi największe kontrowersje etyczne i prawne. Oficjalnie większość projektów NATO lokuje się w pierwszej grupie, jednak granica nie zawsze jest oczywista – system wsparcia decyzji może stopniowo przejmować coraz więcej funkcji, a rola człowieka staje się bardziej formalną „pieczątką” niż realną kontrolą.
Na to wszystko nakłada się wymiar infrastruktury. Bez odpowiednich centrów danych, mocy obliczeniowych i dostępu do zaawansowanych chipów rozwój „AI w strategii NATO” pozostaje na papierze. Dlatego debata o inwestycjach w gigafabryki i centra przetwarzania danych, opisana szerzej w artykule o chińskich gigafabrykach AI w Europie, ma także wymiar obronny. Projekty ulokowane w Unii Europejskiej mogą być szansą na budowę własnych zdolności, ale też wektorem wpływów aktorów spoza sojuszu. Pojawia się ryzyko „drenażu danych”, zależności technologicznych i wpływu państw trzecich na zdolności wojskowe NATO.
Kluczowym, nierozstrzygniętym jeszcze problemem pozostaje kwestia odpowiedzialności. Jeżeli w warunkach bojowych algorytm wskaże błędny cel, a dowódca – ufając systemowi – zatwierdzi atak, kto ostatecznie ponosi odpowiedzialność? Programista, który projektował model? Producent systemu? Dowódca, który podpisał rozkaz? A może politycy zatwierdzający zasady użycia? Brak jasnych odpowiedzi budzi niepokój nie tylko organizacji pozarządowych, ale także części wojskowych planistów świadomych, że odpowiedzialność prawna i reputacyjna może spaść właśnie na nich.
Bezpieczeństwo modeli, nadzór demokratyczny i realne ryzyka dla obywateli
Dyskusje o „alignment” czy „safety” modeli AI często brzmią abstrakcyjnie. Z perspektywy zwykłego obywatela ważniejsze jest jednak, co te hasła oznaczają w praktyce. W kontekście „bojowego AI” bezpieczeństwo modeli może przynieść zarówno korzyści, jak i nowe zagrożenia. Z jednej strony precyzyjne systemy analityczne mogą zmniejszyć ryzyko przypadkowego ostrzału cywilów, identyfikując w czasie rzeczywistym obecność ludności cywilnej i sugerując alternatywne scenariusze działania. Z drugiej strony te same narzędzia mogą zostać użyte do masowej inwigilacji, profilowania obywateli w strefach konfliktu czy śledzenia aktywności politycznej w czasie pokoju.
Można wyobrazić sobie dwa skrajne scenariusze. W pierwszym sztuczna inteligencja w wojsku pełni rolę „inteligentnego hamulca”: ostrzega przed nieproporcjonalnym użyciem siły, wskazuje na ryzyko cywilnych ofiar, pomaga dowódcom zrozumieć pełen obraz sytuacji. W drugim AI staje się narzędziem stałego nadzoru – państwo, dysponując algorytmami analizy danych z kamer, telefonów i mediów społecznościowych, monitoruje obywateli oraz przeciwników politycznych, podejmując decyzje o użyciu siły w sposób coraz bardziej zautomatyzowany i mniej przejrzysty dla opinii publicznej.
Dlatego tak istotne są mechanizmy demokratycznego nadzoru nad programami wojskowymi AI. Parlamenty powinny posiadać realne narzędzia kontroli, w tym prawo do wglądu w ogólne zasady działania systemów i ich dopuszczalne zastosowania. Organizacje pozarządowe, think-tanki i niezależne media pełnią kluczową rolę w monitorowaniu, jak Big Tech współpracuje z wojskiem – zarówno w USA, jak i w Europie. Bez ich stałej presji łatwo wyobrazić sobie sytuację, w której kolejne programy AI rozwijane są w cieniu tajemnicy, a opinia publiczna dowiaduje się o nich dopiero po głośnym incydencie.
Przejrzystość zasad użycia powinna być budowana na dwóch poziomach. Po pierwsze, państwowym – poprzez jasne doktryny wojskowe i regulacje określające dopuszczalne zastosowania AI w obronności. Po drugie, firmowym – poprzez wewnętrzne „konstytucje” bezpieczeństwa, takie jak podejście Anthropic, oraz publicznie dostępne polityki wykorzystania modeli. Tylko wtedy obywatele mają szansę zrozumieć, w jakim świecie żyją, i wywierać presję na zmianę nieakceptowalnych praktyk.
Zmienia się także sposób, w jaki społeczeństwa korzystają z AI na co dzień. Coraz popularniejsze systemy konwersacyjne filtrują i porządkują dla nas informacje, rekomendują treści, podpowiadają decyzje. W materiale „ChatGPT Atlas – jak konwersacyjna przeglądarka z AI zmienia sposób korzystania z internetu” pokazano, jak szybko przyzwyczajamy się do tego, że algorytm jest pośrednikiem w dostępie do wiedzy. Na poziomie strategicznym podobne systemy będą filtrować dane wywiadowcze i rekomendować decyzje wojskowe. Jeśli akceptujemy ich rolę w naszym życiu codziennym bezrefleksyjnie, łatwiej przeoczyć moment, w którym stają się kluczowym, a zarazem mało przejrzystym aktorem w polityce bezpieczeństwa.
Dla Polski i innych państw regionu temat „AI i bezpieczeństwo” nie jest teoretyczny. To pytanie o jakość sojuszniczej tarczy wobec zagrożeń ze wschodu, ale też o to, jak daleko państwo może posunąć się w implementacji nowych narzędzi nadzoru wewnętrznego. Rozbudowa systemów analityki danych w służbach i wojsku musi iść w parze z silnymi gwarancjami praw obywatelskich. W przeciwnym razie „bojowe AI” może okazać się narzędziem nie tylko odstraszania przeciwnika, ale także nadmiernej kontroli własnych obywateli.
Co dalej z „bojowym AI” w NATO? Scenariusze dla Polski i rekomendacje dla decydentów
Przyszłość AI w obronności NATO będzie zależeć od kombinacji czynników technologicznych, politycznych i społecznych. W perspektywie najbliższych 5–10 lat można zarysować kilka realistycznych scenariuszy. Pierwszy z nich to „kontrolowane przyspieszenie”. W tym wariancie sojusz konsekwentnie rozwija AI głównie w obszarach defensywnych – analityce danych, cyberobronie, logistyce – jednocześnie wzmacniając ramy demokratycznego nadzoru. Opracowywane są transparentne standardy, a współpraca z takimi podmiotami jak OpenAI czy Anthropic odbywa się w oparciu o jasno zdefiniowane granice użycia, regularne audyty i kontrolę parlamentarną.
Drugi scenariusz można nazwać „pełzającą automatyzacją”. Rosnąca presja geopolityczna – szczególnie ze strony Chin i Rosji – wymusza stopniowe rozszerzanie uprawnień systemów AI, w tym w obszarze broni bardziej autonomicznej. Formalnie utrzymuje się retorykę „meaningful human control”, ale w praktyce rola człowieka staje się coraz bardziej symboliczna. Kolejne funkcje przenosi się na algorytmy, a opinia publiczna ma ograniczony dostęp do informacji o faktycznym stopniu automatyzacji decyzji.
Trzeci możliwy scenariusz to „regulacyjny kontratak”. Po jednym z głośnych incydentów, związanym np. z błędną rekomendacją systemu AI skutkującą ofiarami cywilnymi, opinię publiczną mobilizuje skandal. Pod naciskiem obywateli i organizacji pozarządowych państwa NATO decydują się na ostrzejsze regulacje ograniczające współpracę Big Tech z wojskiem, wprowadzając twardsze zakazy dotyczące autonomicznej broni i bardziej rygorystyczne mechanizmy nadzoru.
Dla Polski każdy z tych scenariuszy oznacza inne wyzwania. Niezależnie od wariantu można jednak sformułować kilka podstawowych rekomendacji dla decydentów, ekspertów i opinii publicznej:
-
Po pierwsze, budowa własnych kompetencji analitycznych w Ministerstwie Obrony Narodowej, Ministerstwie Spraw Zagranicznych i innych instytucjach odpowiedzialnych za bezpieczeństwo. Polska nie może być jedynie „biernym odbiorcą” rozwiązań opracowanych w USA czy w centralach NATO. Potrzebna jest krajowa kadra ekspertów rozumiejących zarówno technologię, jak i jej konsekwencje strategiczne.
-
Po drugie, inwestowanie w infrastrukturę obliczeniową i badania nad AI, także we współpracy z partnerami europejskimi. Odnosi się to bezpośrednio do sporów wokół lokalizacji gigafabryk i centrów danych – omawianych w tekście o chińskich inwestycjach w europejskie moce obliczeniowe – oraz do ryzyka uzależnienia od dostawców spoza sojuszu.
-
Po trzecie, wzmacnianie parlamentarnych i eksperckich mechanizmów kontroli nad programami wojskowymi AI. Stałe komisje sejmowe powinny posiadać dostęp do informacji o głównych projektach, ich celach, partnerach technologicznych oraz zasadach ochrony praw obywatelskich.
-
Po czwarte, włączanie polskich firm technologicznych i środowisk naukowych w projekty NATO związane z AI. Tylko uczestnicząc w tworzeniu standardów bezpieczeństwa, Polska może realnie wpływać na kształt „bojowego AI” w sojuszu, zamiast jedynie implementować cudze rozwiązania.
-
Po piąte, prowadzenie otwartej debaty publicznej o „sztucznej inteligencji w wojsku”, w której głos zabierają nie tylko wojskowi i informatycy, ale także prawnicy, etycy i przedstawiciele społeczeństwa obywatelskiego. Świadomość społeczna jest jednym z najlepszych zabezpieczeń przed nadużyciami.
Przyszłość AI w obronności NATO będzie w dużej mierze kształtowana na styku trzech sił: decyzji politycznych, strategii Big Tech oraz presji społecznej. Spór Anthropic–Pentagon i odmienna decyzja OpenAI pokazują dwa możliwe modele relacji między laboratoriami AI a aparatem wojskowym. Pierwszy – oparty na twardych liniach etycznych, nawet kosztem utraty kontraktów. Drugi – zakładający, że poprzez bliską współpracę można „od środka” pilnować bezpieczeństwa, choć za cenę głębokiego uwikłania w projekty militarne.
„Bojowe AI” nie jest ani wyłącznie zagrożeniem, ani wyłącznie szansą. To zestaw narzędzi, które mogą zarówno zwiększać precyzję działań zbrojnych i wzmacniać odstraszanie, jak i otwierać drogę do nowych form nadzoru i automatyzacji przemocy. Rola Polski w kształtowaniu standardów bojowego AI w NATO będzie zależeć od tego, czy zdoła połączyć ambicje technologiczne z odpowiedzialną polityką i silnym nadzorem demokratycznym. W tym sensie wpływ Big Tech na bezpieczeństwo zbiorowe nie jest z góry przesądzony – będzie wynikiem twardych decyzji, jakie podejmą dziś rządy, parlamenty, firmy i obywatele.

