Noc, w której algorytmy weszły do sali sztabowej: tło ataku na Iran
Na wielkich ekranach w centrum dowodzenia migotały mapy Bliskiego Wschodu. Linie trajektorii, znaczniki potencjalnych celów, strumienie danych z satelitów i dronów tworzyły gęstą, niemal abstrakcyjną siatkę informacji. W powietrzu unosił się zapach kawy i napięcia – tej szczególnej mieszanki, którą znają tylko ludzie odpowiedzialni za decyzje o życiu i śmierci w czasie kryzysu międzynarodowego.
Tego wieczoru relacje między Stanami Zjednoczonymi a Iranem były na krawędzi otwartego konfliktu. Po serii incydentów w regionie Zatoki Perskiej, atakach na infrastrukturę i ostrych wymianach dyplomatycznych, w Waszyngtonie poważnie rozważano użycie siły. Scenariusz był realny i wysokiego ryzyka: uderzenie odwetowe na cele na terytorium Iranu, przy pełnej świadomości, że każdy błąd może pociągnąć za sobą eskalację na skalę regionalną.
Na stołach operacyjnych leżały klasyczne mapy i teczki z raportami wywiadu, ale tym razem do gry wszedł jeszcze jeden, nowy uczestnik: zaawansowany system sztucznej inteligencji. Wykorzystywany był model Claude, rozwijany przez firmę Anthropic, jeden z najbardziej zaawansowanych modeli językowych generatywnej AI. Według źródeł zbliżonych do amerykańskich struktur obronnych to właśnie on wspierał proces typowania potencjalnych celów na terenie Iranu, analizując ogromne ilości danych napływających z różnych źródeł.
Dla wielu obserwatorów był to moment symboliczny. Po raz pierwszy tak szeroko dyskutowano o tym, że system generatywnej sztucznej inteligencji – podobny do tych, które zwykli użytkownicy znają z czatbotów odpowiadających na pytania czy tworzących teksty – wszedł w sam środek procesu planowania realnej operacji wojskowej. Artykuły w międzynarodowych mediach, w tym na łamach serwisów powołujących się na źródła z Pentagonu i CENTCOM, podkreślały, że Claude stał się integralnym elementem mechanizmu decyzyjnego, choć formalnie pełnił rolę narzędzia wsparcia, a nie autonomicznego decydenta.
Aby zrozumieć wagę tego wydarzenia, warto wyjaśnić, czym jest generatywna AI i modele językowe. W największym uproszczeniu to systemy komputerowe, które uczą się na podstawie ogromnych zbiorów tekstów i danych, aby przewidywać, jakie słowa, zdania lub odpowiedzi powinny pojawić się jako kolejne. Dzięki temu potrafią prowadzić rozmowy, streszczać raporty, tłumaczyć dokumenty czy proponować scenariusze działania. Nie „myślą” jak człowiek, ale są niezwykle skuteczne w wykrywaniu wzorców i łączeniu informacji rozproszonych w wielu źródłach.
W sali sztabowej oznacza to, że AI może w kilka minut zrobić to, co zespół analityków wykonywałby godzinami – przejrzeć setki stron raportów, dane z satelitów, nagrania z dronów i informacje z otwartych źródeł, a następnie zaproponować, które lokalizacje wydają się „najbardziej prawdopodobnymi” celami wojskowymi. To właśnie ten przypadek stał się punktem odniesienia w globalnej debacie o „algorytmach na wojnie” – o tym, jak daleko można i należy posunąć się w powierzaniu maszynom roli w decyzjach o użyciu siły.
Opisany epizod to nie tylko opowieść o jednej nocy kryzysu. To także wprowadzenie do szerszej dyskusji o prawnych, etycznych i technologicznych konsekwencjach wykorzystania generatywnej sztucznej inteligencji na polu walki. Z jednej strony to fascynujący przykład nowoczesnej technologii, z drugiej – powód do zasadniczych pytań o odpowiedzialność, kontrolę i granice automatyzacji w najbardziej dramatycznych decyzjach państwa.
Jak Claude AI trafił do Pentagonu: od projektów badawczych do narzędzia na wojnie
Droga Claude AI do centrum dowodzenia amerykańskiej armii nie zaczęła się w noc kryzysu. To efekt kilkuletniego procesu zacieśniania współpracy między Departamentem Obrony USA a sektorem technologicznym. Pentagon od dawna inwestuje w sztuczną inteligencję, budując ekosystem kontraktów z prywatnymi dostawcami – od dużych firm technologicznych, takich jak Google czy partnerzy związani z Elonem Muskiem, po wyspecjalizowane spółki AI, w tym Anthropic i OpenAI.
Claude AI to zaawansowany model językowy zdolny do przetwarzania i analizy ogromnych ilości tekstu. W zastosowaniach wojskowych oznacza to możliwość pracy na danych wywiadowczych, raportach analitycznych, depeszach dyplomatycznych, ale także na streszczeniach wyników analizy obrazów satelitarnych czy odczytów z sensorów. Model nie „widzi” obrazu jak człowiek, ale może przetwarzać opisy tych obrazów, metadane, współrzędne geograficzne i komentarze analityków, tworząc spójny obraz sytuacji operacyjnej.
Według źródeł bliskich CENTCOM, dowództwa odpowiedzialne za operacje USA na Bliskim Wschodzie wykorzystywały takie modele przede wszystkim jako system wsparcia decyzyjnego. AI analizowała strumienie danych z satelitów, samolotów bezzałogowych, przechwyconych komunikatów oraz otwartych źródeł – a następnie generowała propozycje potencjalnych celów, scenariusze rozwoju sytuacji oraz oceny ryzyka. System był w stanie symulować różne warianty ataku i ich możliwe skutki, co miało pomóc dowódcom w ocenie opcji działania.
Tego rodzaju systemy wsparcia decyzyjnego nie są jednak specyficzne wyłącznie dla wojska. Generatywna AI zrewolucjonizowała już sektor cywilny – od finansów, przez medycynę, po marketing. Wystarczy przypomnieć głośne dyskusje wokół tego, jak systemy AI podpowiadają treści reklamowe i komunikaty marketingowe. W jednym z analizowanych na naszym portalu przypadków, opisanym w tekście OpenAI wycofuje kontrowersyjne sugestie w ChatGPT: lekcja na przyszłość reklamy w generatywnej AI, błędne lub nieetyczne podpowiedzi systemu doprowadziły do burzy wizerunkowej w obszarze reklamy.
Jeżeli w reklamie konsekwencją niewłaściwej rekomendacji może być kryzys PR i utrata zaufania klientów, to w wojsku stawką są ludzkie życia i ryzyko eskalacji konfliktu. To porównanie dobrze pokazuje, dlaczego przypadek wykorzystania Claude AI w procesie typowania celów w Iranie stał się katalizatorem debaty. Pokazuje też, jak dużą odpowiedzialność biorą na siebie dostawcy technologii – to oni muszą definiować granice zastosowań swoich modeli i reagować na kontrowersje, czasem wbrew oczekiwaniom potężnych klientów instytucjonalnych.
Jakie dane analizuje wojskowa AI: od satelitów po media społecznościowe
Aby zrozumieć, co w praktyce robiła sztuczna inteligencja w omawianym scenariuszu, warto przyjrzeć się typom danych, które mogły trafiać do systemu. W nowoczesnej wojnie informacja jest równie ważna jak siła ognia, a AI stała się narzędziem porządkowania i interpretacji tego informacyjnego chaosu.
Po pierwsze, kluczową rolę odgrywają dane geolokalizacyjne i obrazy satelitarne. Z wysokiej orbity widać infrastrukturę wojskową, ruch wojsk, zmiany w ukształtowaniu terenu. AI może analizować sekwencje zdjęć, wykrywając nowe budynki, przemieszczanie sprzętu czy nietypowe aktywności. System uczony na milionach przykładów potrafi odróżniać hangar od magazynu, wyrzutnię rakiet od cywilnego obiektu przemysłowego – przynajmniej w teorii.
Po drugie, dane z dronów i sensorów dostarczają wideo na żywo, obrazy w podczerwieni, odczyty z radarów i czujników akustycznych. W tym obszarze AI może pomagać w rozpoznawaniu obiektów na nagraniach, wskazywaniu podejrzanych zachowań czy wykrywaniu ukrytych instalacji. Z punktu widzenia modelu językowego oznacza to pracę na ustrukturyzowanych opisach: „kolumna pojazdów opancerzonych”, „skupisko ludzi przy bramie kompleksu”, „intensywność ruchu nocą rośnie o 40%”.
Trzeci rodzaj informacji to klasyczne materiały wywiadowcze: raporty analityków, zeznania informatorów, przechwycone komunikaty radiowe i elektroniczne. To dane często niejednoznaczne, pełne hipotez, niepewności i sprzecznych relacji. Tu właśnie modele językowe pokazują swoją siłę – potrafią wiązać wątki, identyfikować powtarzające się motywy, porównywać oceny różnych źródeł i wskazywać, gdzie pojawiają się najbardziej spójne, a gdzie najbardziej rozbieżne informacje.
Wreszcie, coraz większe znaczenie mają dane z otwartych źródeł: media społecznościowe, lokalne portale, zdjęcia i nagrania publikowane w czasie rzeczywistym przez świadków wydarzeń. Analiza takiego materiału wymaga nie tylko zdolności językowych (rozumienia opisów, podpisów, komentarzy), ale także łączenia ich z geolokalizacją, czasem publikacji i innymi źródłami. Dla AI to kolejne puzzle w układance, z których powstaje obraz sytuacji na ziemi.
Model językowy jest tu czymś w rodzaju „łącznika kropek”. Na przykład: raport satelitarny wskazuje nowy budynek w pobliżu bazy wojskowej; drony rejestrują wzmożony ruch nocą; przechwycone komunikaty mówią o „przeniesieniu sprzętu do punktu Alfa”; w mediach społecznościowych pojawiają się zdjęcia konwoju jadącego w tamtym kierunku. Zadaniem AI jest połączenie tych fragmentów w spójną hipotezę: czy to istotny cel wojskowy, czy może zwykła rotacja sił lub – co gorsza – obiekt cywilny błędnie zinterpretowany przez cząstkowe dane?
Każde z tych źródeł ma jednak swoje ograniczenia. Obrazy satelitarne mogą być nieaktualne lub zasłonięte chmurami; systemy geolokalizacji bywają obarczone błędem; dane z dronów zależą od jakości optyki i warunków atmosferycznych; informacje z mediów społecznościowych mogą być celowo zmanipulowane lub po prostu błędne. Łatwo wyobrazić sobie sytuację, w której zgromadzenie cywilów – na przykład uczestników pogrzebu lub demonstracji – zostaje przez system błędnie zinterpretowane jako zlot bojowników. Albo w której budynek szkoły lub szpitala, ze względu na pewne cechy architektoniczne i ruch wokół, zostaje sklasyfikowany jako infrastruktura wojskowa.
Dobrym materiałem do wizualizacji tego procesu byłaby prosta infografika pokazująca „łańcuch danych” – od satelity, przez drona, raport analityka i wpis w mediach społecznościowych, aż po wygenerowaną przez AI sugestię celu. Taki schemat pozwala dostrzec zarówno siłę tej technologii, jak i miejsca, w których błędy, niepewności czy uprzedzenia mogą się kumulować, prowadząc do fatalnych konsekwencji.
Gdzie kończy się wsparcie analityczne, a zaczyna faktyczna decyzyjność maszyn
Kluczowe pytanie, jakie zadają dziś eksperci, brzmi: czy Claude AI w omawianym scenariuszu jedynie proponował cele, czy de facto współdecydował o tym, kto zostanie zaatakowany? Odpowiedź nie jest prosta, ponieważ granica między „wsparciem analitycznym” a „decyzyjnością” zaciera się wraz ze wzrostem zaufania do systemu i tempa, w jakim zachodzą wydarzenia.
Można wyróżnić trzy podstawowe modele wykorzystania AI w kontekście użycia siły. Pierwszy to system rekomendacyjny: AI analizuje dane, generuje listę potencjalnych celów i scenariuszy wraz z oceną ryzyka, ale ostateczną decyzję podejmują ludzie – dowódcy, politycy, prawnicy. Drugi to system częściowo zautomatyzowany, w którym rola człowieka sprowadza się do zatwierdzenia rekomendacji, często w warunkach silnej presji czasu. Trzeci, najbardziej kontrowersyjny, to w pełni autonomiczny system uzbrojenia, który sam wybiera i razi cele bez bieżącej kontroli człowieka.
Z publicznych deklaracji Anthropic wynika, że firma stawia wyraźną granicę: kluczowe decyzje wojskowe mają pozostać pod kontrolą człowieka. Według doniesień, dyrektor generalny Dario Amodei odrzucił żądanie przedstawicieli Departamentu Obrony, by umożliwić „nieograniczone” wykorzystanie AI w każdym prawnie dopuszczalnym scenariuszu. To stanowisko doprowadziło do napięć politycznych i gróźb uznania firmy za „zagrożenie dla łańcucha dostaw”, co pokazuje, jak daleko sięga dziś spór o granice zastosowań sztucznej inteligencji w wojsku.
Nawet jeśli formalnie mówimy o modelu „człowiek w pętli” (human-in-the-loop), w praktyce sprawa jest bardziej skomplikowana. Wyobraźmy sobie dowódcę, który w środku nocy otrzymuje od AI posortowaną listę celów, z dołączonymi wskaźnikami prawdopodobieństwa i analizą ryzyka. System, testowany w dziesiątkach wcześniejszych operacji, wykazał się wysoką trafnością. Presja czasu jest ogromna, dane przyrastają szybciej, niż zespół analityków jest w stanie je przejrzeć. Jak często w takiej sytuacji człowiek realnie kwestionuje rekomendacje maszyny, zamiast je akceptować jako „domyślne”?
Dobrym porównaniem jest relacja pilota i autopilota w nowoczesnym samolocie. Formalnie to pilot odpowiada za lot, a autopilot jedynie wspiera. W praktyce jednak większość czynności rutynowych realizuje system, a człowiek interweniuje głównie w sytuacjach awaryjnych. Podobnie kierowcy coraz częściej polegają na zaawansowanych systemach nawigacji i wspomagania jazdy – od aktywnego tempomatu po automatyczne utrzymanie pasa ruchu. Debaty wokół tej stopniowej utraty kontroli dobrze opisuje tekst CarPlay z ChatGPT i Gemini: strategiczny przełom Apple w wyścigu o inteligentny kokpit, pokazujący, jak daleko może sięgnąć automatyzacja decyzji nawet w tak „codziennym” obszarze jak prowadzenie samochodu.
Jeżeli już w kontekście bezpieczeństwa kilku pasażerów toczymy spór o to, ile kontroli wolno oddać algorytmom, to analogiczna dyskusja w wojsku – gdzie skutkiem decyzji może być śmierć dziesiątek lub setek osób – musi być jeszcze ostrzejsza. W praktyce „człowiek w pętli” może okazać się jedynie formalnym alibi, podczas gdy realna odpowiedzialność za selekcję celów coraz mocniej przesuwa się w stronę systemów, których działania nikt nie jest w stanie w pełni prześledzić ani wyjaśnić.
Prawo wojny a algorytmy: odpowiedzialność za selekcję celów i zasada rozróżnienia
Międzynarodowe prawo humanitarne (IHL), zwane potocznie prawem wojny, powstało w epoce analogowej. Jego podstawowe zasady – rozróżnienie między kombatantami a cywilami, proporcjonalność ataku oraz obowiązek podejmowania środków ostrożności – zakładają istnienie identyfikowalnych podmiotów decyzyjnych. Państwo, dowódcy, konkretni oficerowie – to oni mają podejmować decyzje, które następnie da się przeanalizować, ocenić i, w razie naruszeń, przypisać odpowiedzialność.
Zasada rozróżnienia wymaga, aby strony konfliktu zawsze odróżniały cele wojskowe od obiektów cywilnych i osób cywilnych. Zasada proporcjonalności zakazuje ataków, w których przewidywane straty wśród ludności cywilnej byłyby nadmierne w stosunku do spodziewanej korzyści wojskowej. Obowiązek ostrożności nakazuje podejmowanie wszystkich możliwych środków, aby zweryfikować, czy cel jest zgodny z prawem, a ewentualne ryzyko dla cywilów zminimalizowane.
Wprowadzenie do tego obrazu „czarnej skrzynki” w postaci systemu AI rodzi szereg pytań. Czy dowódca, który opiera się na rekomendacjach wygenerowanych przez model, jest w stanie wykazać należytą staranność? Jak ma udokumentować proces myślowy, skoro kluczowe wnioski pochodzą z systemu, którego wewnętrznego działania nie rozumie nawet zespół inżynierów? Kto ponosi odpowiedzialność za błędną klasyfikację celu – dowódca, operator systemu, dostawca oprogramowania, czy może twórcy modelu, którzy trenowali go na określonych danych?
Wyobraźmy sobie hipotetyczny, ale niestety realistyczny scenariusz: AI wskazuje budynek na obrzeżach miasta jako obiekt wojskowy – na przykład magazyn rakiet. Dane z satelitów i dronów wydają się to potwierdzać, komunikaty przechwycone z sieci przeciwnika wspominają o „punkcie składowania Alfa”. Na podstawie tej analizy dowództwo zatwierdza atak. Po czasie okazuje się jednak, że w budynku mieścił się szpital lub schronisko dla uchodźców, a „punkt Alfa” był w rzeczywistości kodowym określeniem zupełnie innej lokalizacji. Dochodzenie powojenne próbuje odpowiedzieć na pytanie: kto zawinił?
To tu wraca kwestia transparentności modeli i ich podatności na manipulacje. W głośnym eksperymencie opisanym w tekście Prosty trik, który zmienia odpowiedzi ChatGPT i Gemini: czego naprawdę uczy nas głośny eksperyment, pokazano, jak niewielkie zmiany w treści zapytania potrafią radykalnie zmienić odpowiedź generatywnej AI. Jeżeli takie wahania odpowiedzi obserwujemy w kontekście pozornie neutralnych pytań użytkowników, to co dopiero w sytuacji, gdy w grę wchodzą skomplikowane, wieloetapowe analizy danych wywiadowczych?
Wielu prawników obawia się „rozmycia odpowiedzialności”. Każdy z uczestników łańcucha decyzyjnego może próbować wskazywać na algorytm jako źródło błędu: dowódca powie, że działał w zaufaniu do systemu uważanego za standard w NATO, inżynier – że model poprawnie przetworzył dane wejściowe, dostawca – że to państwo użyło narzędzia niezgodnie z zaleceniami. Tymczasem dla ofiar błędnego ataku znaczenie ma przede wszystkim to, czy istniał realny, ludzki nadzór nad selekcją celów oraz czy ktokolwiek jest gotów ponieść odpowiedzialność za naruszenie prawa wojny.
Głos etyków i inżynierów: czy da się zaprojektować „bezpieczną” wojskową AI?
Debata o wykorzystaniu sztucznej inteligencji w wojsku dzieli ekspertów. Część etyków technologii, prawników i praktyków wojskowych dostrzega w niej szansę na ograniczenie liczby ofiar cywilnych. Inni widzą przede wszystkim ryzyko przyspieszenia i zautomatyzowania wojny w sposób, który wymknie się ludzkiej kontroli.
Zwolennicy podkreślają, że dobrze zaprojektowana AI może być precyzyjniejsza niż człowiek. Maszyna nie męczy się, nie ulega emocjom ani uprzedzeniom, nie działa pod wpływem odwetu czy politycznej presji. Jeżeli system analizuje dane obiektywnie i szybko, może pomóc uniknąć uderzeń na cele wątpliwe, wskazać lepsze alternatywy, a nawet rekomendować rezygnację z ataku tam, gdzie ryzyko dla cywilów jest zbyt duże. Niektórzy wojskowi argumentują, że w porównaniu z błędami popełnianymi w przeszłości przez ludzi w warunkach stresu i chaosu, wspomaganie się AI może być wręcz moralnym obowiązkiem.
Krytycy zwracają uwagę na kilka fundamentalnych problemów. Po pierwsze, uprzedzenia zakodowane w danych (bias) – jeżeli model uczony jest na historycznych danych wojskowych, może nieświadomie powielać wzorce, w których pewne grupy lub regiony były częściej uznawane za „podejrzane”. Po drugie, brak przejrzystości: nawet najlepsi inżynierowie nie zawsze potrafią wyjaśnić, dlaczego system przypisał określone prawdopodobieństwo jakiemuś scenariuszowi. Po trzecie, ryzyko eskalacji przez przyspieszenie cyklu decyzyjnego – „wojna w tempie maszyn” może pozostawiać mniej przestrzeni na dyplomację, refleksję czy weryfikację danych.
Istnieje też obawa przed nowym wyścigiem zbrojeń w zakresie autonomicznej broni. Jeżeli jedno państwo zacznie wykorzystywać coraz bardziej zautomatyzowane systemy, jego rywale mogą poczuć się zmuszeni do pójścia tą samą drogą, aby nie pozostać w tyle technologicznie. Każdy kolejny krok w stronę pełnej autonomii może być uzasadniany potrzebą „deterrence” – odstraszania przeciwnika – ale w praktyce oznaczać dalsze odsuwanie człowieka od kluczowych decyzji.
Dodatkowy wymiar sporu pojawia się na linii rządy – dostawcy technologii. W omawianym przypadku firma Anthropic, dostarczająca model Claude, wyznaczyła własne czerwone linie, odmawiając zgody na całkowite zniesienie ograniczeń w użyciu AI przez armię USA. Według doniesień medialnych sekretarz obrony Pete Hegseth publicznie stwierdził, że firma może zostać uznana za „zagrożenie dla łańcucha dostaw”, co jest wyjątkowo mocnym sygnałem politycznym. Z kolei Dario Amodei konsekwentnie podkreślał, że kluczowe decyzje wojskowe muszą pozostać w rękach ludzi.
To rodzi pytania o rolę prywatnych firm w kształtowaniu polityki bezpieczeństwa. Czy przedsiębiorstwa technologiczne powinny mieć prawo blokować niektóre zastosowania wojskowe swoich produktów, powołując się na własne standardy etyczne? A może w imię „bezpieczeństwa narodowego” państwa powinny móc wymuszać określone zastosowania, nawet wbrew woli dostawcy? Eksperci ONZ i organizacji pozarządowych często wskazują, że przeniesienie kluczowych decyzji w sferze wojny i pokoju do nieprzejrzystych zarządów spółek technologicznych byłoby niebezpiecznym precedensem, ale jednocześnie doceniają sytuacje, gdy to właśnie firmy stają się hamulcem dla najbardziej agresywnych pomysłów wojskowych.
Jedna z ekspertek prawa humanitarnego, cytowana w międzynarodowych mediach, ujęła to tak: „Jeżeli oddamy prywatnym firmom de facto prawo do decydowania, jak daleko może posunąć się państwo w automatyzacji wojny, stworzymy nową, nieformalną warstwę władzy ponad istniejącym systemem prawa międzynarodowego. Ale jeśli nie pozwolimy im wyznaczać czerwonych linii, ryzykujemy, że nacisk rządów całkowicie zdominuje debatę o etyce technologii”.
Co dalej z AI na wojnie: scenariusze dla prawa międzynarodowego i bezpieczeństwa globalnego
Przypadek wykorzystania Claude AI w decyzjach dotyczących ataku na cele w Iranie jest prawdopodobnie jednym z pierwszych szeroko opisanych epizodów nowej epoki – epoki, w której algorytmy stają się integralną częścią procesów wojennych. To, jak państwa, organizacje międzynarodowe, firmy technologiczne i społeczeństwa zareagują na to wyzwanie, zadecyduje o kształcie bezpieczeństwa globalnego na kolejne dekady.
Można nakreślić trzy realistyczne scenariusze rozwoju sytuacji. Pierwszy to scenariusz regulacyjny. W tym wariancie państwa dochodzą do porozumienia co do ograniczeń autonomicznych systemów uzbrojenia. Powstają wiążące normy, które definiują, że AI może być używana wyłącznie jako wsparcie, a nie autonomiczny decydent. Wprowadzane są obowiązki audytu algorytmów, dokumentowania procesu decyzyjnego i zapewnienia realnej, a nie tylko formalnej, kontroli człowieka. Organizacje międzynarodowe, takie jak ONZ, tworzą mechanizmy monitorowania i weryfikacji, podobne do tych, które istnieją w obszarze broni chemicznej czy jądrowej.
Drugi scenariusz to scenariusz wyścigu zbrojeń. W świecie narastających napięć geopolitycznych państwa nie są w stanie uzgodnić wspólnych zasad, a każdy ruch jednego z graczy – czy to USA, Chin, Rosji, czy innych potęg regionalnych – prowadzi do kontrruchów. Systemy takie jak Claude, pierwotnie służące jako wsparcie analityczne, stają się pierwszym etapem rozwoju coraz bardziej autonomicznych platform bojowych. Przypadek ataku na Iran z udziałem AI jest w tym scenariuszu wspominany jako początek „epoki algorytmicznych wojen”, w której maszyny podejmują coraz większą liczbę decyzji na polu bitwy.
Trzeci wariant to scenariusz mieszany. Część państw – zwłaszcza demokracje liberalne pod silną presją opinii publicznej – decyduje się na restrykcyjne ograniczenia użycia AI w wojsku. Inne, kierując się logiką przewagi strategicznej, idą w kierunku pełnej automatyzacji, licząc na przewagę szybkości i precyzji. W efekcie powstają nowe nierównowagi: państwa bardziej powściągliwe etycznie mogą obawiać się, że stają się technologicznie „słabsze”, co z kolei może wywoływać presję, aby jednak poluzować ograniczenia. Taki świat jest bardziej nieprzewidywalny i podatny na nieporozumienia, a jednocześnie trudny do uregulowania jednym uniwersalnym traktatem.
Niezależnie od tego, który scenariusz okaże się najbliższy rzeczywistości, jedno jest pewne: dyskusja o AI w wojsku nie jest oderwana od codziennego doświadczenia użytkowników technologii. To przedłużenie tych samych pytań, które zadajemy sobie w kontekście reklam generowanych przez algorytmy, inteligentnych samochodów czy asystentów głosowych. Jakie standardy przejrzystości, odpowiedzialności i bezpieczeństwa wymagamy od firm i rządów? Jak dalece jesteśmy gotowi polegać na systemach, których nie rozumiemy w pełni, ale których wygoda i skuteczność skłaniają nas do coraz większej ufności?
Jako obywatele, konsumenci i wyborcy mamy realny wpływ na kształt tej debaty. Możemy domagać się większej transparentności działań rządów w obszarze nowych technologii, wspierać organizacje monitorujące rozwój autonomicznej broni, interesować się tym, jak politycy i firmy technologiczne odpowiadają na pytania o etykę AI. Zrozumienie podstaw działania systemów sztucznej inteligencji – nie tylko w wydaniu wojskowym, ale także w codziennych aplikacjach – staje się dziś istotnym elementem świadomego obywatelstwa.
Przypadek Claude AI w sali sztabowej, kontrowersje wokół zastosowań generatywnej AI w reklamie i inteligentnych kokpitach samochodowych, eksperymenty pokazujące podatność modeli na subtelne manipulacje – wszystkie te historie splatają się w jedną opowieść o świecie, w którym decyzje coraz częściej podejmujemy wspólnie z algorytmami. Pytanie nie brzmi już, czy będziemy korzystać z AI, ale na jakich warunkach i z jakimi zabezpieczeniami. Odpowiedź na to pytanie współtworzymy wszyscy, nawet jeśli na co dzień nie siedzimy w sali sztabowej pełnej ekranów i czerwonych telefonów.

