AI w wojsku pod lupą: etyczne granice współpracy Big Tech z Pentagonem

AI w wojsku pod lupą: etyczne granice współpracy Big Tech z Pentagonem

Dlaczego zaawansowana AI w wojsku staje się osią globalnego sporu

Zastosowanie zaawansowanych modeli sztucznej inteligencji w sektorze obronnym, jeszcze kilka lat temu traktowane jako futurystyczny scenariusz, dziś stało się jednym z głównych pól sporu między rządami, firmami technologicznymi i organizacjami zajmującymi się etyką AI. W centrum tej debaty znajdują się przede wszystkim duże modele językowe (LLM) oraz systemy agentowe, zdolne do samodzielnego wykonywania złożonych zadań, uczenia się i współdziałania z innymi systemami informatycznymi i czujnikami. Technologie, które w zastosowaniach komercyjnych służą już do automatyzacji obsługi klienta, wsparcia programistów czy analizy dokumentów – jak opisano szerzej w tekście o praktycznych zastosowaniach LLM w biznesie – mogą być z równą łatwością adaptowane do scenariuszy militarnych.

Duży model językowy można w uproszczeniu opisać jako zaawansowany system przewidywania tekstu: analizuje ogromne zbiory danych i uczy się, jakie sekwencje słów są najbardziej prawdopodobne w danym kontekście. Dzięki temu potrafi nie tylko odpowiadać na pytania, ale także streszczać dokumenty, analizować dane czy generować instrukcje działania. Gdy taki model łączy się z tzw. agentami AI – oprogramowaniem, które potrafi wykonywać akcje w świecie cyfrowym, np. przeszukiwać bazy danych, wywoływać API, a nawet sterować urządzeniami – powstaje infrastruktura zdolna wspierać lub częściowo zastępować człowieka w procesach decyzyjnych.

Impulsem do odświeżenia debaty w ostatnich miesiącach stały się doniesienia komentatorów branżowych i analityków AI o rzekomym umieszczeniu firmy Anthropic na nieformalnej „czarnej liście” w kontekście współpracy z resortem obrony USA. Według tych spekulacji część kontrahentów rządowych miała być zaniepokojona restrykcyjną polityką bezpieczeństwa spółki i ograniczeniami w zastosowaniach ofensywnych. Niezależnie od tego, na ile takie doniesienia są precyzyjne, spór doskonale ilustruje głębsze napięcie: czy filozofię „AI safety-first” – którą Anthropic i kilka innych firm stawia w centrum swojego modelu biznesowego – można realnie pogodzić z oczekiwaniami Pentagonu oraz innych resortów obrony, operujących w logice przewagi militarnej i odstraszania?

To pytanie jest kluczowe nie tylko dla inżynierów, lecz także dla prawników technologicznych, ekspertów ds. bezpieczeństwa i osób śledzących etykę AI. W praktyce to oni będą współtworzyć umowy, polityki wewnętrzne i standardy compliance, które zdecydują, czy i na jakich zasadach generatywna AI trafi do wojskowych łańcuchów decyzyjnych. Dlatego w dalszej części tekstu analizowane są: geopolityczne tło wyścigu w AI, specyfika współpracy Pentagonu z Big Tech, założenia filozofii „AI safety-first”, realne punkty tarcia między bezpieczeństwem modeli a wymogami obronnymi, krajobraz regulacji oraz możliwe scenariusze rozwoju sytuacji w perspektywie kilku najbliższych lat.

Pentagon, Big Tech i wyścig zbrojeń w AI: kluczowe tło dla sporu z Anthropic

Podejście Pentagonu do sztucznej inteligencji ma charakter systemowy i dalekosiężny. Trzonem strategii jest budowa sieciowo połączonych, wielodomenowych zdolności dowodzenia i kontroli, znanych pod hasłem Joint All-Domain Command and Control (JADC2). Celem jest integracja danych z różnych źródeł – satelitów, dronów, radarów, systemów rozpoznania elektronicznego, a nawet źródeł otwartych – aby tworzyć możliwie pełny obraz sytuacyjny pola walki w czasie zbliżonym do rzeczywistego. AI ma w tym ekosystemie analizować ogromne strumienie informacji, wykrywać wzorce, priorytetyzować zagrożenia oraz wspierać dowódców w podejmowaniu decyzji.

W praktyce oznacza to rozwój autonomicznych systemów rozpoznania, narzędzi do analizy danych wywiadowczych, algorytmów wspomagających planowanie operacji, a także systemów obrony przeciwlotniczej i przeciwrakietowej, które muszą reagować szybciej niż człowiek. Część z tych rozwiązań funkcjonuje w trybie „human-in-the-loop”, czyli z człowiekiem podejmującym ostateczną decyzję o użyciu środka rażenia. Coraz częściej jednak eksperymentuje się z modelami „human-on-the-loop”, gdzie człowiek pełni rolę nadzoru i może interweniować, oraz „human-out-of-the-loop”, w których decyzje – zwłaszcza o charakterze technicznym i reakcjach obronnych – zapadają w pełni automatycznie w ramach wcześniej ustalonych parametrów.

Z punktu widzenia resortu obrony presja na przyspieszenie wdrożeń wynika z rywalizacji technologicznej z Chinami i innymi mocarstwami. Jeśli jedna ze stron ograniczy dostęp swoich sił zbrojnych do najsilniejszych modeli AI, a konkurent nie przyjmie podobnych ograniczeń, może to zostać uznane za strategiczną słabość. Z tego względu ograniczenia nakładane przez firmy safety-first – na przykład blokujące określone typy zastosowań ofensywnych – są w części środowisk wojskowych traktowane jako ryzyko dla bezpieczeństwa narodowego.

Ostatnia dekada przyniosła istotną ewolucję modelu współpracy Big Tech z Departamentem Obrony USA. Projekt Maven, mający na celu wykorzystanie AI do analizy materiałów wideo z dronów, wywołał sprzeciw części pracowników Google, którzy nie chcieli, by ich praca bezpośrednio wspierała działania zbrojne. Po fali protestów i wycofaniu się Google z projektu rozpoczęto poszukiwanie bardziej „odpolitycznionych” form kooperacji. Powstały struktury takie jak Joint Artificial Intelligence Center (JAIC), rozwinięto programy grantowe, konsorcja badawcze oraz kontrakty ramowe, które mają łączyć innowacyjność sektora prywatnego z potrzebami wojska, jednocześnie łagodząc napięcia reputacyjne.

Anthropic wchodzi w ten świat jako podmiot, który zbudował swoją markę wokół bezpieczeństwa i ograniczania ryzyk systemowych. Media branżowe wskazują, że tam, gdzie tradycyjni dostawcy starają się przede wszystkim spełnić wymagania kontraktowe, Anthropic podkreśla własne, autonomiczne standardy odpowiedzialnego wykorzystania AI. To z kolei stanowi punkt zapalny dla części decydentów obronnych, przyzwyczajonych do sytuacji, w której to państwo – a nie prywatna firma – wyznacza granice dopuszczalnych zastosowań technologii.

Filozofia „AI safety-first” na przykładzie Anthropic: wartości, ograniczenia i praktyka

Podejście „AI safety-first” można rozumieć jako próbę podporządkowania całego cyklu życia modeli – od projektowania, przez trenowanie, wdrażanie i aktualizacje – nadrzędnemu celowi minimalizacji ryzyk systemowych. W praktyce nie chodzi jedynie o filtry treści blokujące oczywiste nadużycia, takie jak instrukcje budowy broni czy nawoływanie do przemocy. Kluczowe są pytania o to, jak model zachowuje się w niejednoznacznych sytuacjach, jak radzi sobie z manipulacją, w jakim stopniu ułatwia eskalację konfliktów, proliferację broni, prowadzenie cyberataków czy kampanii dezinformacyjnych.

Anthropic stała się jednym z najbardziej widocznych ambasadorów filozofii safety-first dzięki koncepcji tzw. „constitutional AI”. Idea polega na tym, by model był od początku uczony w oparciu o zestaw zasad – swoistą konstytucję – odzwierciedlającą pożądane normy etyczne i prawne. Zamiast wyłącznie karcić model za błędne odpowiedzi, inżynierowie uczą go, by sam oceniał swoje zachowania względem tych zasad. Uzupełnieniem są intensywne testy „red teaming”, czyli próby celowego „złamania” systemu przez zespoły ekspertów, którzy sprawdzają, jak model reaguje na podchwytliwe polecenia, wrogie prompty czy próby obejścia zabezpieczeń.

Drugim filarem są rygorystyczne polityki tzw. dual-use, dotyczące technologii, które mogą być wykorzystane zarówno do celów cywilnych, jak i wojskowych lub przestępczych. W modelu safety-first nie wystarczy, że aplikacja ma deklarowany „pokojowy” cel; istotne jest również to, jak łatwo można ją przekształcić w narzędzie ofensywne. Stąd biorą się ograniczenia funkcji modeli w określonych środowiskach, zasady „model access tiers” (różne poziomy dostępu do zaawansowanych możliwości) oraz rozbudowane systemy guardrails, które filtrują i korygują odpowiedzi.

Dla prawników technologicznych i specjalistów ds. compliance kluczowe jest zrozumienie, że takie podejście przekłada się bezpośrednio na decyzje biznesowe: odmowę wsparcia niektórych aplikacji wojskowych, wymóg silniejszej kontroli nad tym, kto i w jakim celu wdraża modele, priorytetowe traktowanie scenariuszy związanych z bezpieczeństwem cywilnym i ochroną infrastruktury krytycznej. Te same mechanizmy bezpieczeństwa, które w sektorze komercyjnym pomagają ograniczać nadużycia – jak opisano w tekście o tym, jak AI wspiera pracę programistów – w środowisku militarnym bywają postrzegane jako „zbyt defensywne” i utrudniające pełne wykorzystanie potencjału technologii.

Kiedy bezpieczeństwo modeli AI koliduje z wymogami obronnymi: realne punkty tarcia

Konflikt między filozofią bezpieczeństwa modeli a logiką wymagań obronnych najlepiej widać na kilku konkretnych obszarach. Pierwszy z nich to poziom autonomii systemów. Firmy safety-first co do zasady dążą do utrzymania człowieka „w pętli” decyzyjnej, zwłaszcza gdy w grę wchodzi użycie siły lub naruszenie praw podstawowych. Wojsko natomiast, szczególnie w domenach takich jak obrona przeciwrakietowa czy cyberobrona, argumentuje, że w wielu sytuacjach reakcja musi być szybsza niż czas potrzebny na analizę przez człowieka. Stąd nacisk na większą automatyzację decyzji i przesuwanie człowieka w rolę nadzoru, a nie aktywnego decydenta.

Drugi obszar to dostęp do pełnych możliwości modeli. Dostawcy AI coraz częściej blokują generowanie szczegółowych instrukcji dotyczących wytwarzania broni, prowadzenia cyberataków czy destabilizacji infrastruktury krytycznej. Dla resortów obrony tego typu funkcje mogą być jednak użyteczne w procesie testowania własnych systemów, symulowania ataków czy przygotowywania scenariuszy obronnych. Powstaje napięcie: czy prywatna firma może odmówić rządowi narzędzi, które ten uznaje za kluczowe dla bezpieczeństwa państwa, jeśli jednocześnie te same narzędzia mogłyby zostać użyte ofensywnie?

Trzeci punkt tarcia dotyczy przejrzystości i audytowalności. Podmioty komercyjne chronią swoje know-how, dane treningowe i architekturę modeli jako przewagę konkurencyjną. Tymczasem kontrahenci wojskowi oczekują głębokich audytów, możliwości walidacji zachowań systemu w skrajnych scenariuszach, a często także integracji z wrażliwymi, tajnymi danymi. Równoważenie ochrony tajemnic przedsiębiorstwa z wymogami bezpieczeństwa narodowego staje się jednym z najtrudniejszych wyzwań kontraktowych.

Czwarty obszar to kontrola nad deploymentem. Firmy safety-first wprowadzają ścisłe zasady, komu i na jakich warunkach udostępniają API lub modele on-premises. Mogą uzależniać dostęp od spełnienia określonych standardów etycznych czy bezpieczeństwa, a także zastrzegać sobie prawo do odcięcia systemu w przypadku naruszeń. Dla części aktorów państwowych taki poziom kontroli po stronie dostawcy jest nie do przyjęcia, szczególnie gdy chodzi o systemy krytyczne dla obronności.

Na tym tle przypadek Anthropic jest szczególnie wymowny. Firma deklaruje gotowość do współpracy z rządem USA przy projektach o charakterze defensywnym, w tym ochronie infrastruktury krytycznej, analizie zagrożeń czy wzmacnianiu odporności cybernetycznej. Jednocześnie sygnały płynące ze środowisk branżowych sugerują, że Anthropic stawia twardsze bariery wobec zastosowań stricte ofensywnych i wysokiego ryzyka, co w części kręgów wojskowych bywa odczytywane jako brak pełnej lojalności wobec strategicznych interesów państwa. Analogii można szukać w odmowach uczestnictwa inżynierów Google w Project Maven, jednak dziś stawka jest wyższa – generatywna AI może wpływać nie tylko na analizę danych, lecz także na niemal każdy element łańcucha operacyjnego.

Istotnym źródłem napięć są również podatności samych agentów AI. Jak pokazano w analizie prompt injection i bezpieczeństwa agentów AI, modele zdolne do wykonywania działań w środowisku cyfrowym można stosunkowo łatwo skłonić do zachowań sprzecznych z intencją projektantów, jeśli zostaną wystawione na złośliwe dane wejściowe. W kontekście korporacyjnym skutkiem może być ujawnienie poufnych informacji lub wykonanie niezamierzonych operacji na danych. W zastosowaniach wojskowych podobne wektory ataku mogłyby prowadzić do sabotażu misji, błędnej identyfikacji celów czy eskalacji konfliktu na podstawie zmanipulowanych sygnałów sensorycznych.

Ryzyka prawne, etyczne i operacyjne: co naprawdę jest stawką w sporze o wojskowe AI

Spór o rolę firm safety-first w wojskowych zastosowaniach AI bywa przedstawiany w kategoriach „za” lub „przeciw” współpracy z resortami obrony. W rzeczywistości stawka jest bardziej złożona i obejmuje co najmniej trzy grupy ryzyk: prawne, etyczne oraz operacyjne i techniczne.

Na poziomie prawnym pierwsze pytanie dotyczy odpowiedzialności za decyzje wspierane przez AI. Jeśli model rekomenduje cel ataku, interpretuje obraz z drona lub sugeruje klasyfikację obiektu jako zagrożenia, a decyzja została podjęta częściowo w oparciu o te rekomendacje, kto ponosi odpowiedzialność za skutki? Państwo jako podmiot stosujący przemoc zbrojną? Dostawca technologii, który zaprojektował i wytrenował model? A może integrator systemów, który połączył AI z sensorami i środkami rażenia? Rozstrzygnięcia w tym zakresie będą miały bezpośrednie przełożenie na kształt umów, ubezpieczeń, klauzul odpowiedzialności i procesów due diligence.

Kolejna kwestia to zgodność z międzynarodowym prawem humanitarnym (IHL) oraz z rodzącymi się ramami regulacyjnymi dla AI, jak unijne prace nad AI Act. Choć wiele jurysdykcji stosuje odrębny reżim dla zastosowań wojskowych, granica między systemami cywilnymi a militarnymi coraz częściej się zaciera. Ten sam model może być używany do analizy dokumentów prawnych w kancelarii i do klasyfikacji celów w systemie wojskowym, a odpowiedzialność regulacyjna będzie zależeć od sposobu wdrożenia i kontroli nad użytkowaniem.

Ryzyka etyczne dotyczą przede wszystkim „dehumanizacji” decyzji o użyciu siły. Im bardziej zautomatyzowany staje się łańcuch dowodzenia, tym większe zagrożenie, że odpowiedzialność rozmyje się między algorytmy, operatorów i dowódców. Pojawia się ryzyko nadmiernego zaufania do rekomendacji modelu, który – z racji swojej złożoności – bywa postrzegany jako obiektywny autorytet, mimo że uczy się na danych historycznych, przepełnionych uprzedzeniami i błędami oceny zagrożeń. Wzmacnia to asymetrię między państwami dysponującymi zaawansowaną AI a resztą świata, co może wpływać na stabilność międzynarodową.

Na poziomie operacyjnym modele generatywne są podatne na szereg błędów i ataków. Halucynacje – przekonujące, lecz fałszywe odpowiedzi – w zastosowaniach biurowych oznaczają głównie straty czasu lub błędy merytoryczne. W środowisku militarnym mogą prowadzić do błędnej oceny intencji przeciwnika, nieprawidłowego sklasyfikowania obiektu jako wrogiego lub niewłaściwego przypisania winy za incydent. Do tego dochodzą ataki typu prompt injection, zatruwanie danych treningowych (data poisoning), manipulacja danymi sensorycznymi czy próby przejęcia i sklonowania modelu przez przeciwnika, aby poznać jego słabości.

Warto zauważyć, że te same mechanizmy, które w sektorze prywatnym przyspieszają pracę programistów i zespołów produktowych – opisane m.in. w tekście o wsparciu deweloperów przez AI – w środowisku wojskowym mogą multiplikować zarówno efektywność, jak i błędy. Automatyzacja generowania kodu czy analiz może sprawić, że błędne założenia zostaną wdrożone na skalę, której nie da się szybko zweryfikować manualnie.

Zwolennicy szerokiej współpracy firm safety-first z Pentagonem argumentują, że właśnie dzięki wysokim standardom bezpieczeństwa ryzyka można ograniczać lepiej niż w modelu, w którym państwo rozwija AI w tajnych laboratoriach, bez zewnętrznego nadzoru i debaty. Krytycy obawiają się jednak normalizacji wojskowych zastosowań AI i utraty społecznej kontroli nad kierunkiem rozwoju technologii, jeśli najzdolniejsze zespoły badawcze zostaną trwale wciągnięte w orbitę kompleksu militarno-przemysłowego.

Ewolucja regulacji i standardów: od dobrowolnych zasad do twardego prawa

Regulacyjny pejzaż wokół wojskowego AI rozwija się wielowarstwowo. Pierwszą warstwą są inicjatywy dobrowolne i standardy branżowe, w tym wewnętrzne polityki firm takich jak Anthropic, kodeksy postępowania Big Tech oraz dobrowolne porozumienia z rządem USA dotyczące bezpieczeństwa tzw. modeli frontierowych. Coraz częściej powoływane są wewnętrzne rady etyki AI, prowadzone są procesy impact assessment, a zasady „responsible AI” stają się wymaganym elementem strategii korporacyjnych. To właśnie w tych strukturach zapadają decyzje o tym, czy firma podejmie się danego projektu wojskowego, jakie warunki bezpieczeństwa postawi i czy zastrzeże sobie prawo do wycofania wsparcia.

Druga warstwa to reguły na poziomie państw i bloków gospodarczych. Stany Zjednoczone, Unia Europejska, Wielka Brytania i inne jurysdykcje stopniowo formułują podejścia do AI w obronności: od miękkich wytycznych i deklaracji politycznych, przez zamówienia publiczne warunkowane spełnieniem standardów bezpieczeństwa, po próby włączania elementów wojskowych zastosowań AI w szersze ramy regulacyjne. Problemem pozostaje jednak częste rozdzielanie AI cywilnej i wojskowej, co tworzy luki – modele trenowane i certyfikowane w reżimie cywilnym mogą być następnie adaptowane do scenariuszy obronnych bez równie przejrzystego nadzoru.

Trzecia warstwa to międzynarodowe normy i prawo humanitarne. W ramach ONZ od lat toczą się rozmowy dotyczące tzw. LAWS (lethal autonomous weapon systems). Eksperci prawa konfliktów zbrojnych próbują aktualizować interpretacje istniejących zasad – takich jak rozróżnianie celów cywilnych i wojskowych, proporcjonalność użycia siły czy wymóg zachowania ostrożności – do realiów systemów, które częściowo „podejmują decyzje” za ludzi. Brak globalnego konsensusu sprawia, że firmy technologiczne działają w szarej strefie: z jednej strony odczuwają presję moralną i reputacyjną, z drugiej – realne zapotrzebowanie rządów na zaawansowane zdolności.

Przypadek Anthropic i związane z nim dyskusje o rzekomej „czarnej liście” w USA w istocie dotykają pytania, kto ma ostatecznie definiować dopuszczalne użycia AI w wojsku. Czy powinno to pozostać wyłączną domeną demokratycznie kontrolowanych państw? Czy globalne korporacje technologiczne, dysponujące unikatową wiedzą o ryzykach systemowych, powinny mieć własne prawo weta wobec niektórych zastosowań? A może niezbędny jest silniejszy mandat wspólnoty międzynarodowej, zdolnej do ustanowienia minimalnych standardów wiążących zarówno państwa, jak i sektor prywatny?

Scenariusze dla branży: od „cyfrowego kompleksu militarno-przemysłowego” po model bezpieczeństwa wspólnego

W perspektywie najbliższych 5–10 lat można wyróżnić kilka realistycznych scenariuszy rozwoju relacji między firmami AI a sektorem obronnym. Każdy z nich inaczej kształtuje rolę podmiotów safety-first, takich jak Anthropic, i inaczej wpływa na pracę prawników technologicznych, ekspertów ds. bezpieczeństwa oraz praktyków wdrażających AI.

Pierwszy scenariusz to „pełna integracja”. Większość dużych firm AI, w tym te akcentujące bezpieczeństwo, decyduje się na szeroką współpracę z resortami obrony w ramach przejrzystych, lecz elastycznych zasad. Powstaje de facto „cyfrowy kompleks militarno-przemysłowy” nowej generacji, w którym komponenty AI stają się tak samo naturalnym elementem zamówień obronnych jak elektronika czy oprogramowanie łączności. Z perspektywy prawa kontraktowego oznacza to rosnącą złożoność umów, konieczność precyzyjnego opisywania odpowiedzialności za zachowanie modeli, rozbudowane klauzule audytowe i mechanizmy wyłączania systemów w razie naruszenia zasad.

Drugi scenariusz można określić jako „dualny rynek AI”. Część firm koncentruje się na zastosowaniach cywilnych i komercyjnych, budując wizerunek „neutralnych” i unikając bezpośredniej współpracy z resortami obrony. Inny segment rynku, często mniej restrykcyjny w podejściu do bezpieczeństwa i transparentności, specjalizuje się w rozwiązaniach militarnych. W takim układzie rośnie ryzyko, że najbardziej kontrowersyjne systemy będą rozwijane przez podmioty operujące poza głównym nurtem debaty etycznej, co utrudnia kontrolę społeczną i międzynarodowy nadzór.

Trzeci scenariusz to „regulacyjny docisk”. Państwa i organizacje międzynarodowe wprowadzają twardsze regulacje dotyczące wojskowego AI, narzucając minimalne standardy bezpieczeństwa, przejrzystości i audytowalności zarówno rządom, jak i firmom. Dostawcy technologii muszą udowodnić, że ich modele spełniają określone kryteria odporności na manipulację, przewidywalności i zgodności z prawem humanitarnym. Dla prawników oznacza to konieczność projektowania umów w zgodzie z nowymi ramami regulacyjnymi, dla zespołów bezpieczeństwa – ścisłe procedury testowania i monitoringu, a dla liderów technologicznych – potrzebę włączania perspektywy regulacyjnej już na etapie projektowania systemów.

Możliwy jest także scenariusz kryzysowy. Poważny incydent z udziałem wojskowego systemu AI – na przykład eskalacja konfliktu w wyniku błędnej klasyfikacji celu lub sabotażu operacji przez zmanipulowany model – mógłby wywołać gwałtowną reakcję opinii publicznej i polityczne żądanie „hamulca bezpieczeństwa”. W takiej sytuacji można spodziewać się nagłego wprowadzenia bardzo restrykcyjnych ograniczeń, często projektowanych ad hoc, co utrudniłoby przewidywalne planowanie i inwestycje w sektorze.

We wszystkich tych scenariuszach rośnie znaczenie kompetencji, które są już dziś kluczowe przy wdrażaniu AI w biznesie: zrozumienie praktycznych możliwości i ryzyk LLM (jak opisano w artykule o zastosowaniach LLM w biznesie), znajomość technicznych wektorów ataku i zabezpieczeń agentów (omawianych w tekście o prompt injection), a także świadomość, jak AI zmienia procesy wytwarzania oprogramowania i zarządzania ryzykiem technologicznych błędów.

Dla prawników technologicznych, ekspertów ds. bezpieczeństwa i liderów odpowiedzialnych za wdrożenia AI kluczowe jest traktowanie wojskowych zastosowań nie jako odrębnej, egzotycznej niszy, lecz jako skrajnego przypadek tych samych technologii, które coraz częściej implementują w swoich organizacjach. To właśnie na styku praktyki biznesowej, wymogów regulacyjnych i geopolityki będą zapadać decyzje, czy filozofia „AI safety-first” okaże się realnym standardem w erze cyfrowych zbrojeń, czy jedynie marginesem w świecie zdominowanym przez logikę przewagi militarnej.


Leave a Reply

Your email address will not be published. Required fields are marked *