Claude na wojnie: jak użycie modeli Anthropic przez USA w konflikcie z Iranem zmienia oblicze armii

Claude na wojnie: jak użycie modeli Anthropic przez USA w konflikcie z Iranem zmienia oblicze armii

Nowa era wojny algorytmicznej: co wiemy o użyciu Claude przez armię USA w atakach na Iran

Ataki Stanów Zjednoczonych, częściowo koordynowane z izraelskimi uderzeniami, na irańskie instalacje wojskowe na przełomie lutego i marca 2026 r. stały się jednym z najpoważniejszych epizodów bezpieczeństwa międzynarodowego ostatnich lat. Skala operacji – obejmująca uderzenia na infrastrukturę rakietową, ośrodki dowodzenia i wybrane cele cybernetyczne – nadała im wymiar nie tylko regionalny, ale i globalny. W cieniu dyskusji o legalności ataków i ryzyku eskalacji na Bliskim Wschodzie pojawił się jednak inny, równie przełomowy wątek: rola zaawansowanej sztucznej inteligencji w planowaniu i prowadzeniu działań zbrojnych.

Zgodnie z relacjami kilku dziennikarzy specjalizujących się w tematyce bezpieczeństwa narodowego, w tym analityków cytujących źródła w Departamencie Obrony, amerykańskie struktury wojskowe – zwłaszcza US Central Command – miały w toku tej kampanii korzystać z modelu Claude, rozwijanego przez firmę Anthropic. Co istotne, miało to nastąpić pomimo politycznej decyzji Białego Domu o stopniowym zakazie wykorzystywania technologii Anthropic w agencjach federalnych, w związku ze sporem o dopuszczalne zastosowania tej klasy narzędzi.

Ten tekst opiera się na analizie publicznie dostępnych materiałów prasowych, wypowiedzi ekspertów od prawa humanitarnego i technologii wojskowych, a także na własnym komentarzu autora. W centrum uwagi znajdują się możliwe zastosowania Claude w planowaniu i prowadzeniu operacji przeciw Iranowi, napięcie między skutecznością militarną a zasadami etycznymi i prawnymi, ryzyka eskalacji konfliktów oraz wnioski dla przyszłych regulacji AI w sektorze obronnym.

Wojna algorytmiczna – rozumiana jako integracja systemów sztucznej inteligencji z całym łańcuchem decyzyjnym, od pozyskania informacji po wydanie rozkazu uderzenia – przestaje być futurystyczną wizją. Konflikt USA–Iran z przełomu lutego i marca 2026 r. staje się jednym z pierwszych głośnych przykładów, w których systemy klasy Claude wchodzą na front w sposób systemowy, a nie tylko eksperymentalny. To wydarzenie ma znaczenie nie tylko dla wojskowości, lecz także dla globalnej debaty o AI governance.

Jak Claude trafił na front: tło sporu Anthropic–Pentagon i rola AI w planowaniu operacji wojskowych

Spór o miejsce Claude w amerykańskiej machinie bezpieczeństwa narastał przez cały 2025 i początek 2026 r. Z jednej strony znajdował się Pentagon, który – podobnie jak inne resorty obrony na świecie – dążył do możliwie szerokiej integracji modeli generatywnych z procesem planowania i prowadzenia operacji. Oficjalna linia Departamentu Obrony mówiła o wykorzystywaniu AI do „wszystkich zgodnych z prawem zastosowań” (all lawful purposes), co w praktyce dawało bardzo szerokie pole interpretacji.

Z drugiej strony była firma Anthropic, której współzałożyciel i dyrektor generalny Dario Amodei publicznie podkreślał istnienie twardych czerwonych linii: sprzeciw wobec pełnej autonomii systemów broni, udziału w masowej inwigilacji obywateli oraz zastosowań uderzająco niezgodnych z wartościami demokratycznymi. W wewnętrznych i publicznych dyskusjach przedstawiciele Anthropic wskazywali, że ich modele mogą wspierać analizę, zrozumienie złożonych sytuacji oraz poprawiać bezpieczeństwo cywilów, ale nie powinny stać się „mózgiem” maszyn zabijających pozbawionych nadzoru człowieka.

Napięcie między tymi dwiema wizjami narastało, aż ostatecznie Biały Dom zdecydował się na polityczny krok: wprowadzenie zakazu wykorzystywania technologii Anthropic w agencjach federalnych z okresem wygaszania istniejących kontraktów. Był to sygnał zarówno do firm, jak i do resortów siłowych, że granice współpracy publiczno-prywatnej w dziedzinie AI będą definiowane nie tylko przez popyt militarny, lecz również przez polityczne i etyczne ograniczenia.

Mimo tego zakazu, liczne doniesienia sugerują, że część dowództw wojskowych – zwłaszcza odpowiadających za Bliski Wschód – nadal korzystała z Claude w ramach istniejącej infrastruktury analitycznej. Co najmniej część systemów była bowiem już głęboko zintegrowana z poufnymi sieciami, w których model pomagał w analizie danych wywiadowczych, symulacjach scenariuszy i wsparciu procesów planistycznych.

Z perspektywy laika Claude jest zaawansowanym modelem językowym, zdolnym do przetwarzania ogromnych wolumenów tekstu, danych liczbowych, map i obrazów, tworzenia streszczeń, rekomendacji działań oraz wariantów scenariuszy. W odpowiednio zabezpieczonym środowisku może działać na danych niejawnych, łącząc klasyczne narzędzia analityczne z elastycznością konwersacyjnego interfejsu. Z militarnego punktu widzenia czyni go to narzędziem do wspierania tzw. kill chain – łańcucha prowadzącego od pozyskania informacji, przez identyfikację celu, ocenę ryzyka, po wydanie rozkazu i ocenę skutków.

Integracja generatywnej AI z tym łańcuchem nie jest zresztą zjawiskiem izolowanym. Podobne procesy widać w wykorzystaniu modeli OpenAI, rozwiązań firm takich jak Palantir czy licznych systemów niszowych, budowanych na potrzeby wywiadu i wojska. Na naszym portalu szerzej opisywaliśmy geopolityczny wymiar tego trendu w analizie globalnego wyścigu AI między Alphabet, Nvidią i Anthropic. Użycie Claude w konflikcie z Iranem to kolejny dowód, że firmy tworzące modele ogólnego przeznaczenia stają się nie tylko partnerami sektora prywatnego, lecz także aktorami w sferze bezpieczeństwa międzynarodowego.

Możliwe zastosowania Claude na teatrze działań wobec Iranu: od analizy danych po symulacje pola walki

Relacje osób znających kulisy operacji przeciw Iranowi wskazują, że Claude mógł pełnić kilka kluczowych funkcji w amerykańskiej architekturze dowodzenia. Choć dokładne szczegóły pozostają utajnione, zbieżne opisy sugerują wykorzystanie modelu w następujących obszarach.

Po pierwsze, analiza wywiadowcza. Nowoczesne armie toną w danych: raportach HUMINT, przechwyconych komunikatach (SIGINT), obrazach satelitarnych, nagraniach z dronów, meldunkach jednostek i dokumentach dyplomatycznych. Tradycyjnie zespoły analityków potrzebują wielu godzin, by z tych strumieni informacji wydobyć kluczowe wnioski dla decydentów. Model taki jak Claude może w ciągu minut „przeczytać” tysiące stron raportów, porównać je z bazami danych, zestawić na mapach i przedstawić oficerom syntetyczny obraz sytuacji, wskazując luki lub sprzeczności.

Po drugie, identyfikacja i priorytetyzacja celów. W konflikcie z Iranem szczególne znaczenie miały cele o wysokiej wartości militarnej i politycznej: stanowiska rakietowe, ośrodki dowodzenia, magazyny amunicji, jednostki odpowiadające za działania proxy w regionie. System mógł generować wstępne listy celów, oceniać ich wartość operacyjną, przewidywać skutki ich zniszczenia, a także modelować ryzyko ofiar cywilnych na podstawie danych o gęstości zabudowy, porze dnia czy historycznych wzorcach zachowań ludności.

Po trzecie, wsparcie symulacji scenariuszy. W sytuacji kryzysowej kluczowe jest zrozumienie, jak przeciwnik może zareagować na dany krok, oraz jakie będą konsekwencje polityczne i militarne kolejnych uderzeń. Claude, zasilony danymi historycznymi, analizami ekspertów i aktualnymi informacjami wywiadowczymi, mógł oferować decydentom wariantowe scenariusze odpowiedzi Iranu, potencjalnych działań Rosji czy Chin, a także reakcji państw sojuszniczych i opinii publicznej.

Po czwarte, logistyka i łańcuchy dostaw. Z pozoru „nudny” element wojny – dostarczenie paliwa, amunicji, części zamiennych, wsparcia medycznego – decyduje o powodzeniu operacji. Algorytmy optymalizacyjne, wsparte zdolnościami językowymi Claude, mogą planować trasy, synchronizować działania jednostek powietrznych i morskich, analizować ryzyka związane z pogodą czy ruchem cywilnym, a także podpowiadać, gdzie rozsądnie rozproszyć zasoby, by ograniczyć ich podatność na kontratak.

Po piąte, wsparcie analizy prawnej i komunikacji. Współczesne operacje zbrojne przebiegają równolegle na polu walki i w sferze opinii publicznej. Narzędzie takie jak Claude może pomagać prawnikom wojskowym w opracowywaniu wstępnych analiz zgodności planowanych ataków z międzynarodowym prawem humanitarnym, przygotowywaniu uzasadnień prawnych oraz materiałów informacyjnych dla partnerów, mediów i własnego społeczeństwa. Może także tworzyć wariantowe komunikaty w razie kontrowersyjnych skutków ubocznych, np. trafienia w obiekt cywilny.

Kluczowym pojęciem w tej dyskusji jest „decision compression” – kompresja procesu decyzyjnego w czasie. Tam, gdzie wcześniej wielogodzinne narady sztabowe poprzedzały wybór celów i zatwierdzenie planu uderzenia, dziś część pracy jest delegowana na system, który w ciągu minut lub sekund dostarcza rekomendacje. Powoduje to „przyspieszenie łańcucha zabijania”: skracanie czasu od wykrycia potencjalnego celu do faktycznego uderzenia. W warunkach konfliktu może to przynosić przewagę militarną, ale jednocześnie zwiększa ryzyko, że błędne dane czy zbyt uproszczony model rzeczywistości doprowadzą do nieodwracalnej tragedii.

Istotne jest również strukturalne uzależnienie wojska od infrastruktury już wpiętej w systemy tajne. Gdy przez lata budowano narzędzia analityczne oparte na określonym modelu – w tym wypadku Claude – ich szybkie zastąpienie innym rozwiązaniem (np. modelem od OpenAI czy xAI) wymagałoby czasu, środków i testów bezpieczeństwa. W warunkach narastającego kryzysu geopolitycznego dowództwa są skłonne utrzymywać dotychczasowe rozwiązania, nawet jeśli polityczny przekaz sugeruje potrzebę ich ograniczenia.

Dla porównania, w sektorze cywilnym podobne techniczne funkcje – analiza danych, generowanie treści i symulacja scenariuszy – wykorzystuje się w marketingu, projektowaniu czy pracy twórców. Opisywaliśmy to szczegółowo w analizie o narzędziach obrazowania Alibaba AI i GPT‑Image OpenAI. W środowisku wojskowym te same techniczne możliwości nabierają jednak zupełnie innej wagi – ich efektem są nie kampanie reklamowe, lecz decyzje o życiu i śmierci.

Ryzyka militarne i systemowe: od błędnych rekomendacji po utratę ludzkiej kontroli nad przemocą

Wykorzystanie modeli językowych w realnym konflikcie zbrojnym rodzi katalog ryzyk, które wykraczają poza typowe obawy związane z błędami oprogramowania. Podstawowym problemem jest możliwość generowania błędnych lub „halucynacyjnych” rekomendacji. Jeżeli system zasugeruje, że dany kompleks budynków jest wyłącznie obiektem wojskowym, podczas gdy w rzeczywistości mieści się tam również szkoła czy szpital, konsekwencje mogą być katastrofalne. Podobnie, zawyżenie wiarygodności niezweryfikowanych informacji lub uproszczone rozumowanie w złożonych sporach prawnych może prowadzić do decyzji sprzecznych z prawem humanitarnym.

Drugie ryzyko wiąże się z efektem „cognitive offloading” – przerzucaniem części procesu myślenia na system postrzegany jako obiektywny i wszechwiedzący. Oficerowie pod presją czasu i informacji mogą odczuwać pokusę, by przyjąć rekomendacje modelu jako punkt wyjścia, a nawet domyślne rozwiązanie, zamiast traktować je jako jeden z wielu głosów w dyskusji. Z czasem może to prowadzić do osłabienia krytycznego myślenia i nawyku zadawania niewygodnych pytań.

Z tym zjawiskiem łączy się „automation bias” – skłonność ludzi do nadmiernego zaufania decyzjom systemów zautomatyzowanych, zwłaszcza jeśli na co dzień okazują się one trafne. Im częściej oficerowie widzą, że rekomendacje Claude pokrywają się z tradycyjnymi analizami sztabowymi, tym większa pokusa, by w sytuacjach spornych „dać się przekonać” algorytmowi. W warunkach dynamicznej operacji przeciw Iranowi, gdzie czas na weryfikację bywał ograniczony, ten mechanizm mógł mieć szczególne znaczenie.

Trzecim wyzwaniem jest zwiększenie tempa i skali działań. Jeśli sztuczna inteligencja przyspiesza proces od identyfikacji celu po uderzenie, rośnie ryzyko, że pojedynczy błąd wywoła efekt domina: atak na cel cywilny, który radykalizuje społeczeństwo, skłania władze do odwetu i popycha region ku otwartej wojnie. W takim środowisku drobne niedoskonałości w danych wejściowych lub w modelu mogą mieć znacznie poważniejsze konsekwencje niż w spokojnych warunkach analitycznych.

Czwarte ryzyko dotyczy relacji cywilno‑wojskowych. Jeżeli politycy deklarują zakaz użycia określonej technologii w strukturach państwa, a jednocześnie system pozostaje de facto niezbędnym elementem maszynerii wojennej, pojawia się pytanie o realny zakres cywilnej kontroli nad wojskiem. Konflikt wokół Claude pokazał, że w praktyce granice te bywają płynne: to, co formalnie jest „wygaszaniem” współpracy, może w rzeczywistości oznaczać utrzymywanie kluczowych komponentów w trybie operacyjnym z powodu braku gotowych alternatyw.

Opisując potencjalne skutki, warto wspomnieć medialne relacje o kontrowersyjnych trafieniach w obiekty cywilne w Iranie w trakcie ostatniej kampanii. Choć bez dostępu do pełnych danych nie sposób przesądzić, w jakim stopniu rekomendacje systemów AI przyczyniły się do tych incydentów, samo istnienie takiej możliwości podważa zaufanie opinii publicznej do zapewnień o „precyzyjnych, chirurgicznych uderzeniach”. W tle pozostaje fundamentalne pytanie: na ile obecne systemy są rzeczywiście bezpieczne, solidne i przewidywalne, a na ile ich wdrożenie napędza wyścig zbrojeń w obszarze autonomii decyzyjnej?

Etyczne dylematy: czy modele językowe mogą wspierać planowanie ataków bez naruszania wartości demokratycznych

Debata etyczna wokół użycia Claude w konfliktach zbrojnych toczy się na kilku poziomach. Zwolennicy argumentują, że dobrze zaprojektowane systemy AI mogą w rzeczywistości zmniejszyć skalę ludzkiego cierpienia. Jeśli algorytmy pomagają dokładniej selekcjonować cele, lepiej przewidywać obecność ludności cywilnej i symulować skutki uboczne uderzeń, to w praktyce mogą prowadzić do mniejszej liczby ofiar i zniszczeń. Dodatkowo, ścisła dokumentacja procesu analitycznego – w której każda rekomendacja systemu jest zapisana – może poprawić przejrzystość i ułatwić późniejsze rozliczanie błędów.

Krytycy odpowiadają, że taka logika grozi „normalizacją” wojny wspieranej przez algorytmy. Im bardziej proces zabijania staje się zautomatyzowany, tym bardziej odległy emocjonalnie jest dla decydentów. Jeśli kolejne warianty uderzeń są przedstawiane w formie eleganckich tabel i scenariuszy wygenerowanych przez model, istnieje ryzyko, że moralny ciężar decyzji zostanie rozmyty. Łatwiej wtedy przyjąć argumentację: „system zasugerował ten cel” – nawet jeśli formalnie odpowiedzialność spoczywa na człowieku.

Kolejną obawą jest utrwalanie uprzedzeń i błędów zakodowanych w danych treningowych. Jeżeli modele były trenowane na materiałach odzwierciedlających określone narracje polityczne czy stereotypy kulturowe, mogą nieświadomie powielać je w rekomendacjach. W kontekście wojny oznacza to ryzyko dyskryminacji określonych grup, upraszczania motywacji przeciwnika czy systematycznego niedoszacowywania wartości obiektów cywilnych.

W tle pozostaje pytanie o rolę firm komercyjnych. Czy prywatne przedsiębiorstwo, którego podstawowym obowiązkiem jest wobec inwestorów i pracowników, powinno mieć realny wpływ na przebieg wojny? Przedstawiciele Anthropic wielokrotnie podkreślali, że masowa inwigilacja obywateli oraz pełna autonomia systemów zabijających stoją w sprzeczności z deklarowanymi wartościami firmy. Spór z Departamentem Obrony, optującym za „wszystkimi zgodnymi z prawem zastosowaniami”, pokazał jednak, że granica między literą prawa a polityczną interpretacją wartości demokratycznych bywa cienka.

Warto spojrzeć na te dylematy na tle szerszej dyskusji o etyce AI w życiu codziennym. Gdy analizowaliśmy zmiany w ekosystemie cyfrowych asystentów Apple w tekście o końcu rozmów głosowych w ChatGPT na macOS, punktem spornym były głównie prywatność, wygoda i model biznesowy. W przypadku wojskowych zastosowań Claude stawką jest nie tylko prywatność, ale i życie ludzi na polu walki oraz stabilność całych regionów. Ten kontrast dobrze pokazuje, jak bardzo etyka AI zależy od kontekstu użycia.

Wyzwania prawne i odpowiedzialność: czy obecne prawo wojenne nadąża za sztuczną inteligencją

Międzynarodowe prawo humanitarne (IHL), Karta Narodów Zjednoczonych oraz prawo odpowiedzialności państw powstawały w epoce, w której decyzje wojskowe były podejmowane przez ludzi, z pomocą stosunkowo prostych systemów technicznych. W przypadku takich narzędzi jak Claude prawo wciąż zakłada, że odpowiedzialność za decyzje operacyjne ponosi człowiek – dowódca, struktura dowodzenia, ostatecznie państwo. W praktyce pojawia się jednak problem „luki odpowiedzialności” (accountability gap).

Gdy decydenci polegają na złożonych systemach algorytmicznych, bardzo trudno jest zrekonstruować łańcuch przyczynowo‑skutkowy prowadzący do konkretnej decyzji. Czy w razie nielegalnego ataku na obiekt cywilny winę ponosi oficer, który zaakceptował rekomendację? Zespół analityków, który nie dopatrzył się błędów? Programiści, którzy stworzyli system? A może państwo, które świadomie zdecydowało się na wykorzystanie takiego narzędzia? Obecne standardy prawnomiędzynarodowe dają na te pytania jedynie ogólne odpowiedzi.

Dyskusja o broni autonomicznej (LAWS) koncentrowała się dotąd na systemach kinetycznych – dronach, robotach bojowych, autonomicznych wieżyczkach obronnych. Claude reprezentuje natomiast „mózg” operacyjny: system analityczny i planistyczny, który sam nie odpala pocisków, ale w praktyce kształtuje decyzje o tym, gdzie i kiedy zostaną one użyte. To wyzwanie dla dotychczasowych propozycji regulacji, które próbowały oddzielać broń „śmiercionośną” od „nieszkodliwych” systemów wsparcia.

Formuła „all lawful purposes”, forsowana przez Departament Obrony, pokazuje napięcie między literalnym stosowaniem istniejącego prawa a potrzebą ustanowienia dodatkowych norm. Skoro wiele zastosowań AI nie jest dziś wprost zabronionych, państwa mają formalnie swobodę ich rozwijania. Coraz częściej mówi się jednak o konieczności tworzenia kontraktowych ograniczeń – zapisanych w umowach między rządami a dostawcami AI – które wykluczałyby masową inwigilację obywateli, w pełni autonomiczne decyzje o użyciu siły czy celowe omijanie mechanizmów odpowiedzialności.

Możliwe scenariusze sporów prawnych obejmują zarówno pozwy przeciw producentom AI w sądach krajowych, jak i rozliczanie dowódców przed trybunałami międzynarodowymi. W przyszłości komisje śledcze ONZ mogą analizować rolę algorytmów w konkretnych incydentach – na przykład w kontrowersyjnych atakach na obiekty cywilne w Iranie. Będzie to wymagało nie tylko dostępu do danych technicznych modeli, lecz także nowych standardów przechowywania logów decyzyjnych i audytu systemów.

Szczególną rolę odgrywają wewnętrzne regulacje firm: polityki użytkowania, standardy bezpieczeństwa, mechanizmy zgłaszania nadużyć. Choć formalnie nie są one prawem międzynarodowym, w praktyce stają się quasi‑prawnymi ograniczeniami, które wiążą klientów komercyjnych i instytucjonalnych. Przypadek Anthropic pokazuje jednak, że firmy muszą liczyć się z presją rządów, zwłaszcza w czasie kryzysów. Pytanie, na ile będą w stanie utrzymać własne czerwone linie, pozostaje otwarte.

Kierunki regulacji i wnioski dla AI governance: czego uczy nas przypadek Claude–Iran

Użycie Claude w operacjach przeciw Iranowi jest precedensem, który prawdopodobnie zdefiniuje sposób, w jaki demokratyczne państwa będą rozumieć relację między AI a siłą zbrojną w nadchodzących latach. Z tej historii płynie kilka wniosków dla globalnego zarządzania sztuczną inteligencją.

Na poziomie krajowym Stanów Zjednoczonych potrzebne są jaśniejsze standardy współpracy między państwem a dostawcami AI. Oznacza to nie tylko polityczne deklaracje, ale twarde regulacje: ustawowe zakazy określonych zastosowań (np. pełnej autonomii systemów zabijających), obowiązek cyklicznych audytów ryzyka, wymogi dotyczące weryfikowalnego nadzoru człowieka nad kluczowymi decyzjami wojskowymi. Ważne jest także stworzenie niezależnych ciał nadzorczych, które będą miały dostęp do informacji niejawnych i realne kompetencje kontrolne.

Na poziomie międzynarodowym rośnie potrzeba prac nad traktatem lub co najmniej kodeksem postępowania dotyczącym systemów AI w wojnie. Taki dokument powinien obejmować zarówno systemy kinetyczne, jak i analityczne oraz planistyczne, takie jak Claude. Kluczowe byłoby wprowadzenie minimalnych standardów przejrzystości (np. obowiązku rejestrowania rekomendacji systemu i powodów ich przyjęcia lub odrzucenia) oraz zakazu określonych kategorii zachowań, jak masowe profilowanie ludności cywilnej czy automatyczne generowanie list celów bez weryfikacji człowieka.

W samych firmach technologicznych potrzebne są silniejsze wewnętrzne mechanizmy kontroli. Mowa o realnie umocowanych komitetach etycznych, zdolnych blokować kontrowersyjne wdrożenia; o klauzulach „kill switch” w kontraktach, pozwalających dostawcy na wyłączenie systemu w razie rażących nadużyć; wreszcie o większej przejrzystości wobec opinii publicznej w sprawie współpracy z sektorami wojskowym i wywiadowczym. Bez tego rosnąć będzie podejrzenie, że wojna algorytmiczna rozwija się za zamkniętymi drzwiami, poza demokratyczną kontrolą.

Nie można zapominać o geopolitycznym tle. Jeżeli państwa demokratyczne nie wypracują wspólnych standardów użycia AI w wojsku, presja konkurencji ze strony reżimów autorytarnych może skłonić je do rozluźniania własnych zasad. W analizie o roli Indii w globalnym wyścigu AI pokazaliśmy, że wojskowe zastosowania sztucznej inteligencji są jednym z głównych frontów tej rywalizacji. Przypadek sporu Anthropic–Pentagon jest testem, czy prywatna firma może skutecznie bronić swoich wartości w starciu z potrzebami państwa w czasie konfliktu.

Dla czytelników zainteresowanych geopolityką i wojskowością kluczowy wniosek jest następujący: precedens użycia Claude w wojnie z Iranem będzie rzutował na kolejne konflikty. To, jakie regulacje powstaną dziś, jaką postawę przyjmą firmy technologiczne i jak ukształtuje się opinia publiczna, zadecyduje, czy wojna algorytmiczna stanie się bardziej przewidywalna i ograniczona prawem, czy też popchnie świat w stronę coraz większej autonomii maszyn w decyzjach o użyciu siły. W tym sensie spór o jeden model językowy jest w istocie sporem o przyszły kształt bezpieczeństwa międzynarodowego.


Leave a Reply

Your email address will not be published. Required fields are marked *