Anthropic kontra Pentagon: test granic etycznej sztucznej inteligencji w wojsku USA

Anthropic kontra Pentagon: test granic etycznej sztucznej inteligencji w wojsku USA

Dlaczego spór Anthropic z Pentagonem stał się sprawą globalną: tło, stawka i główni aktorzy

W ciągu zaledwie kilku lat generatywna sztuczna inteligencja z narzędzia dla programistów i marketerów stała się jednym z kluczowych zasobów strategicznych państw. Stany Zjednoczone, które tradycyjnie opierają swoją przewagę militarną na technologiach, dziś patrzą na modele językowe i systemy analizujące dane jako fundament bezpieczeństwa narodowego. W tle toczy się przyspieszająca rywalizacja technologiczna z Chinami i Rosją, a administracja w Waszyngtonie jasno komunikuje, że wojsko musi jak najszybciej „uzbroić się w AI” – zarówno w obszarze dowodzenia, jak i wywiadu, cyberoperacji czy logistyki.

Na tym tle wyrasta Anthropic – założony w 2021 r. przez byłych pracowników OpenAI, z Dario Amodeiem na czele. Spółka zbudowała markę firmy, która stawia bezpieczeństwo i przewidywalność modeli na pierwszym miejscu. Jej rodzina modeli Claude jest postrzegana jako jedno z trzech najważniejszych komercyjnych rozwiązań obok GPT od OpenAI i Gemini od Google. Anthropic pozyskał wsparcie największych firm technologicznych, w tym Amazona i Alphabetu, a jego roczne przychody liczone są już w dziesiątkach miliardów dolarów.

W lipcu 2025 r. Anthropic podpisał z Departamentem Obrony USA kontrakt o wartości około 200 mln dolarów na rozwój i wykorzystanie swoich modeli AI w zadaniach związanych z bezpieczeństwem narodowym. Według doniesień, były to pierwsze komercyjne modele językowe, które zostały dopuszczone do pracy z tajnymi danymi Pentagonu. W praktyce oznaczało to nie tylko prestiż, ale również głęboką integrację technologii Anthropic z infrastrukturą obronną USA.

Wkrótce po podpisaniu umowy zaczęły jednak narastać napięcia. Departament Obrony coraz wyraźniej sygnalizował, że oczekuje możliwości wykorzystania modeli Anthropic do bardzo szerokiego spektrum zastosowań militarnych – w tym do analizy masowych zasobów danych wywiadowczych, wsparcia planowania operacji, identyfikacji celów czy potencjalnie do komponentów autonomicznych systemów uzbrojenia. Firma odpowiadała, że jej wewnętrzne zasady bezpieczeństwa wykluczają udział w projektach masowej inwigilacji obywateli USA oraz w tworzeniu w pełni autonomicznej broni śmiercionośnej. Te „czerwone linie” stały się osią sporu.

Publicznym punktem zwrotnym były wypowiedzi Dario Amodeiego, który stwierdził, że „nie może z czystym sumieniem” zaakceptować żądań Pentagonu, zakładających nieograniczony, zgodny z prawem dostęp do systemów AI Anthropic, obejmujący także zastosowania, które spółka uznaje za nieakceptowalne etycznie. Według relacji mediów Amodei rozmawiał bezpośrednio m.in. z Emilem Michaelem, podsekretarzem obrony ds. badań i inżynierii, co pokazuje, jak wysoko ulokowany był ten spór w strukturze Departamentu Obrony.

Napięcie sięgnęło zenitu, gdy sekretarz obrony Pete Hegseth zagroził, że jeśli Anthropic nie zgodzi się na formułę „for all lawful purposes” („do wszelkich zgodnych z prawem zastosowań”), kontrakt zostanie zerwany, a firma uznana za „ryzyko dla łańcucha dostaw” w systemie zamówień obronnych USA. W praktyce oznaczałoby to nie tylko utratę konkretnej umowy, ale też poważne utrudnienia w dostępie do przyszłych kontraktów z sektora publicznego.

Po kilku dniach ostrej wymiany stanowisk, kiedy wydawało się, że drogi Anthropic i Pentagonu rozejdą się definitywnie, pojawiły się informacje, że Amodei wraca do rozmów. To powrót do stołu negocjacyjnego w sytuacji, gdy obie strony mają ogromne interesy do zabezpieczenia: Pentagon potrzebuje jednych z najlepiej ocenianych modeli na rynku, a Anthropic nie może zignorować kontraktów wartych setki milionów dolarów i ich znaczenia dla wiarygodności firmy w segmencie instytucji publicznych.

Spór Anthropic–Pentagon to coś więcej niż konflikt handlowy. To test granic tego, jak daleko państwo może sięgać w żądaniach wobec prywatnych dostawców AI oraz na ile deklaracje o „bezpiecznej” i „etycznej” sztucznej inteligencji wytrzymują zderzenie z realną presją geopolityczną. Równolegle inne firmy, jak OpenAI, zawierają własne porozumienia z Departamentem Obrony oraz NATO, o czym szerzej piszemy w analizie „OpenAI vs Anthropic: walka o zaufanie użytkowników w erze „wojny modeli””. Na tym tle obecne negocjacje Anthropic z Pentagonem mogą stać się precedensem, który wyznaczy standardy dla całego rynku.

Jak Pentagon definiuje „akceptowalną” wojskową AI: warunki, klauzule i czerwone linie Departamentu Obrony USA

Departament Obrony USA postrzega sztuczną inteligencję przede wszystkim jako narzędzie zwiększania przewagi operacyjnej. Z przecieków kontraktowych i publicznych wypowiedzi urzędników wyłania się obraz instytucji, która coraz częściej oczekuje od dostawców AI prostego zobowiązania: modele mają być dostępne „do wszelkich zgodnych z prawem zastosowań”. W praktyce oznacza to, że to państwo – poprzez prawo krajowe i doktrynę wojskową – definiuje, co jest dopuszczalne, a nie sam dostawca technologii poprzez swoje zasady etyczne.

Kluczowe zastosowania, o których mówi się w kontekście Pentagonu, obejmują między innymi:

  • analizę ogromnych wolumenów danych wywiadowczych, w tym sygnałowych i obrazowych, oraz automatyczne wykrywanie wzorców;
  • wsparcie planowania operacji wojskowych, w tym symulacje scenariuszy i rekomendacje działań;
  • systemy wspomagające identyfikację i priorytetyzację potencjalnych celów;
  • narzędzia dla cyberoperacji – zarówno defensywnych, jak i ofensywnych;
  • integrację z zamkniętymi sieciami wojskowymi, w tym systemami dowodzenia i kontroli.

W kontraktach z dostawcami AI znajdują odzwierciedlenie specyficzne dla sektora obronnego klauzule. Należą do nich przede wszystkim:

  • klauzule bezpieczeństwa narodowego – zastrzegające prawo rządu do ingerencji w sposób świadczenia usług w sytuacjach zagrożenia, a także wprowadzające ograniczenia co do tego, z kim firma może współpracować na innych rynkach;
  • rozszerzone prawa dostępu do danych – obejmujące zarówno dane wygenerowane przez system, jak i dane użytkowników po stronie rządowej, często z wymogiem przetwarzania ich w infrastrukturze certyfikowanej przez Pentagon;
  • prawo do modyfikacji modeli – obejmujące możliwość tworzenia odrębnych wariantów modelu dla zastosowań wojskowych, z innym zestawem zabezpieczeń i parametrów;
  • wymogi integracji z tajnymi sieciami – czyli zamkniętymi systemami łączności i przetwarzania danych, działającymi w odseparowaniu od publicznego internetu.

Dla czytelnika spoza branży obronnej warto doprecyzować kilka kluczowych pojęć. „Łańcuch dostaw w obronności” to cały ekosystem firm – od producentów śrub, przez dostawców oprogramowania, po firmy doradcze – które dostarczają towary i usługi wojsku. Uznanie spółki za „ryzyko w łańcuchu dostaw” oznacza, że państwo postrzega ją jako potencjalne zagrożenie dla niezawodności lub bezpieczeństwa systemu i w konsekwencji ogranicza lub wyklucza z udziału w przetargach.

„Klauzule bezpieczeństwa narodowego” to zapisy dające rządowi dodatkowe uprawnienia w relacji z dostawcą, na przykład prawo do jednostronnej zmiany warunków w sytuacji kryzysu, nałożenia dodatkowych wymogów bezpieczeństwa czy blokady określonych przepływów danych. „Tajne sieci Pentagonu” to z kolei specjalne systemy teleinformatyczne, fizycznie i logicznie odseparowane od sieci publicznych, służące do przetwarzania informacji niejawnych – od ściśle tajnych meldunków wywiadu po plany operacyjne.

Na tym tle żądanie Pentagonu wobec Anthropic – by umożliwić użycie modeli Claude „do wszelkich legalnych zastosowań” i zdjąć część zabezpieczeń – jest konsekwencją szerszej strategii. Departament Obrony stara się budować przewagę negocjacyjną, stosując dobrze znaną w amerykańskich zamówieniach formułę „best and final offer”. W praktyce oznacza to przedstawienie dostawcy ostatecznej propozycji kontraktu z jasnym sygnałem, że brak akceptacji otworzy drogę konkurentom.

Gotowość Pentagonu do sięgnięcia po alternatywnych dostawców pokazał kontrakt podpisany z OpenAI tuż po załamaniu rozmów z Anthropic, a także sygnały, że resort rozmawia z tradycyjnymi gigantami przemysłu obronnego i innymi firmami AI. To klasyczna taktyka negocjacyjna – sygnał, że państwo nie jest zakładnikiem jednego dostawcy, nawet jeśli ten dysponuje technologią ocenianą jako wiodąca na rynku. Dla firm z Doliny Krzemowej to twarde przypomnienie, że kontrakty z sektorem obronnym zawsze będą obciążone silnym komponentem politycznym.

Filozofia bezpieczeństwa Anthropic kontra logika wojskowa: gdzie dokładnie zderzają się dwie wizje AI

Anthropic od początku budował swoją tożsamość wokół hasła „AI safety–first”. W praktyce oznacza to kilka warstw zabezpieczeń i zasad. Po pierwsze, modele Claude są trenowane i dostrajane z wykorzystaniem rozbudowanych polityk użycia, które mają minimalizować ryzyko generowania treści prowadzących do przemocy, masowej inwigilacji czy obchodzenia prawa. Po drugie, firma kładzie nacisk na zasadę „human in the loop” – człowiek ma pozostać w pętli decyzyjnej, zwłaszcza tam, gdzie skutki decyzji mogą być nieodwracalne.

Wewnętrzne zasady Anthropic zakładają, że modele nie powinny być wykorzystywane do projektowania w pełni autonomicznej broni ani do systemowej, prewencyjnej inwigilacji całych populacji. Dario Amodei wielokrotnie sygnalizował, że firma jest gotowa wspierać obronę narodową, ale wyłącznie w taki sposób, który nie upodabnia demokracji do ich autorytarnych przeciwników. Według jego deklaracji, granice te obejmują właśnie masową inwigilację obywateli oraz pełną autonomizację decyzji o użyciu śmiercionośnej siły.

Logika wojskowa jest odmienna. Siły zbrojne, niezależnie od państwa, dążą do maksymalnej przewagi informacyjnej i szybkości podejmowania decyzji. Sztuczna inteligencja, zdolna analizować w czasie zbliżonym do rzeczywistego gigantyczne ilości danych wywiadowczych i operacyjnych, jest postrzegana jako klucz do tej przewagi. Naturalnym dążeniem jest więc integracja AI z jak najszerszym spektrum systemów – od analitycznych, przez logistyczne, po te bezpośrednio związane z użyciem siły.

Na tym tle sformułowanie „any lawful use” jest z perspektywy Pentagonu logiczne: jeśli zastosowanie jest zgodne z prawem, nie powinno być blokowane przez prywatną firmę. Problem w tym, że prawo często nie nadąża za możliwościami technologii. To, co dziś mieści się w literze prawa – na przykład szerokie interpretacje uprawnień służb do gromadzenia danych – może być postrzegane jako głęboko problematyczne z punktu widzenia praw człowieka, zwłaszcza gdy w grę wchodzą systemy o niespotykanej skali i mocy obliczeniowej.

Anthropic identyfikuje tu kilka kluczowych ryzyk. Po pierwsze, erozję zaufania użytkowników i inwestorów. Jeśli firma, która budowała markę na bezpieczeństwie, zgodziłaby się na usunięcie kluczowych zabezpieczeń pod naciskiem jednego klienta, sygnał dla globalnego rynku byłby jasny: zasady są elastyczne, jeśli w grę wchodzą odpowiednio duże pieniądze. Po drugie, ryzyko niekontrolowanej militaryzacji modeli – raz stworzone i wdrożone wojskowe warianty AI mogą być trudno odseparować od zastosowań cywilnych, zwłaszcza gdy chodzi o tę samą bazową architekturę.

Po trzecie, niejasne konsekwencje prawne. W przypadku naruszeń międzynarodowego prawa humanitarnego czy praw człowieka, odpowiedzialność może rozkładać się pomiędzy dowódców wojskowych, decydentów politycznych i dostawców technologii. Brak jasnych standardów w tej dziedzinie oznacza, że firmy takie jak Anthropic mogą stać się stroną sporów i postępowań, których natury dziś nie sposób w pełni przewidzieć.

Na tle stanowiska Anthropic kontrastuje podejście innych graczy. OpenAI, mimo deklarowanych podobnych „czerwonych linii”, zdecydował się na podpisanie kontraktu z Pentagonem, w którym kluczową rolę odgrywa ograniczenie wdrożenia do chmurowego API, a nie język kontraktu – jak argumentują przedstawiciele firmy. Inne spółki, w tym gigantyczni dostawcy chmury i technologii obronnych, tradycyjnie akceptują szeroką formułę „dowolnych legalnych zastosowań”, uznając, że to państwo ponosi główny ciężar odpowiedzialności za użycie technologii.

Spór Anthropic–Pentagon staje się więc praktycznym testem: czy przy stole negocjacyjnym da się obronić etyczne deklaracje, które w materiałach marketingowych brzmią przekonująco, ale w zderzeniu z ofertą wartą setki milionów dolarów są trudne do utrzymania. To również element szerszej „wojny modeli” między Anthropic a OpenAI – szczegółowo opisanej we wspomnianej analizie o zaufaniu użytkowników – gdzie na szali stoi nie tylko jakość techniczna, ale także postrzegana wiarygodność moralna.

Jak naprawdę negocjuje się wojskowe kontrakty na AI: proces, taktyki i formalne wymogi

Z zewnątrz kontrakt na wojskową AI może wyglądać jak zwykła umowa IT o dużej wartości. W praktyce proces jest znacznie bardziej rozbudowany i sformalizowany. Zwykle zaczyna się od niewielkich pilotaży i tzw. protokołów badawczych – resort obrony testuje możliwości danego modelu w ograniczonym, bezpiecznym środowisku, często z wykorzystaniem odanonimizowanych danych lub sztucznych scenariuszy.

Następnie pojawia się etap formalny, w którym agencje rządowe publikują zapytanie o informacje (Request for Information, RFI), sondając rynek pod kątem dostępnych rozwiązań. To moment, w którym firmy mają szansę przedstawić swoje technologie, ale także warunki współpracy, w tym ograniczenia wynikające z polityk bezpieczeństwa. Kolejnym krokiem jest zapytanie ofertowe (Request for Proposal, RFP), w którym państwo jasno określa wymagania techniczne, bezpieczeństwa i operacyjne, a firmy składają szczegółowe propozycje techniczno-finansowe.

Po stronie rządowej prowadzone są oceny bezpieczeństwa, w tym analizy zgodności z przepisami o ochronie informacji niejawnych i bezpieczeństwie cybernetycznym. Dla AI dochodzi do tego specyfika związana z jakością danych treningowych, ryzykiem halucynacji modelu czy podatnością na ataki typu „prompt injection”. Dopiero po tych etapach następują właściwe negocjacje umowy ramowej i kontraktów wykonawczych.

Kontrakty na AI różnią się zasadniczo od klasycznych zamówień na sprzęt wojskowy. Po pierwsze, są silnie zależne od danych – zarówno tych dostarczanych przez państwo, jak i tych wykorzystywanych do trenowania modeli. Po drugie, modele wymagają ciągłych aktualizacji i dostrajania, co oznacza, że umowa nie dotyczy „gotowego produktu”, ale relacji trwającej przez lata. Po trzecie, występuje problem tzw. „czarnej skrzynki” – wiele nowoczesnych modeli jest trudnych do pełnego audytu i wyjaśnienia, jak dokładnie dochodzą do określonych rekomendacji. To utrudnia przypisanie odpowiedzialności za błędne decyzje.

W negocjacjach Pentagonu z firmami AI stosowane są klasyczne taktyki dużego, dominującego klienta: presja czasowa, groźba przekierowania kontraktu do konkurencji, podkreślanie wymogów bezpieczeństwa narodowego, które mają uzasadniać szczególnie daleko idące klauzule. Z kolei firmy takie jak Anthropic czy OpenAI grają tym, co mają najcenniejsze – unikalną technologią, marką i reputacją na rynku globalnym, a także argumentem, że zbyt agresywne wymagania mogą zniszczyć zaufanie użytkowników i partnerów na całym świecie.

Całość odbywa się w ramach złożonego systemu regulacji zamówień publicznych w USA, znanego jako Federal Acquisition Regulation (FAR). Zasady te mają ograniczać arbitralność decyzji, wymagać konkurencyjności i przejrzystości przetargów. Jednak w obszarze bezpieczeństwa narodowego funkcjonuje wiele wyjątków – istnieją przyspieszone tryby, możliwość utajnienia części wymagań oraz uproszczone procedury przy projektach uznanych za krytyczne z punktu widzenia obronności. W praktyce oznacza to, że najważniejsze kontrakty na wojskowe AI często toczą się poza pełnym światłem reflektorów opinii publicznej.

Dla polskiego czytelnika istotne może być porównanie z systemem europejskim. W Unii Europejskiej dyrektywy o zamówieniach publicznych kładą większy formalny nacisk na przejrzystość i uczciwą konkurencję, jednak także tu istnieją szerokie wyjątki dla zamówień w dziedzinie obronności i bezpieczeństwa państwa. Państwa członkowskie mogą stosować tryby niejawne, ograniczone i negocjacyjne, jeśli wykażą, że wymaga tego interes bezpieczeństwa narodowego. Innymi słowy – także w Europie wojskowe kontrakty na AI będą w dużej mierze negocjowane „za zamkniętymi drzwiami”, choć w nieco innych ramach prawnych.

Warto zauważyć, że podobne napięcia między suwerennością państwa a interesami Big Tech pojawiają się również poza Zachodem. Przykładem są Indie, gdzie OpenAI i Tata Group budują tzw. suwerenną infrastrukturę AI. Analizujemy ten model w tekście „OpenAI i Tata budują suwerenną infrastrukturę AI w Indiach: co to oznacza dla rynku i użytkowników ChatGPT”. Tam również punktem spornym są kontrola nad danymi, zakres dopuszczalnych zastosowań oraz to, na ile państwo może wymuszać szczególne warunki na globalnych dostawcach AI.

Konsekwencje dla relacji rząd–Big Tech: precedens, który przesądzi o przyszłości wojskowej AI

Finał sporu Anthropic–Pentagon będzie miał skutki wykraczające daleko poza jedną umowę. Jeżeli Anthropic ostatecznie ustąpi i zgodzi się na formułę „dowolnych legalnych zastosowań” z ograniczonymi zapisami o zabezpieczeniach, powstanie niebezpieczny dla zwolenników restrykcyjnej etyki AI standard. Inne firmy będą pod presją, aby zaakceptować podobne warunki, by nie wypaść z rywalizacji o lukratywne kontrakty wojskowe. W efekcie „czerwone linie” deklarowane dziś w politykach odpowiedzialnej AI mogą w praktyce ulec rozmyciu.

Jeżeli jednak Anthropic utrzyma swoje stanowisko, nawet kosztem utraty części kontraktów i piętna „ryzyka w łańcuchu dostaw”, konsekwencje także będą poważne. Z jednej strony utwierdzi to w przekonaniu młodsze start-upy i inwestorów, że budowanie ostrzejszych ram bezpieczeństwa jest realnym wyborem, a nie tylko marketingiem. Z drugiej – może zniechęcić część kapitału do firm, które „stawiają się” państwu, jeśli oznacza to rezygnację z ogromnych przychodów z sektora obronnego.

Reakcja innych graczy jest już widoczna. OpenAI, Google, Microsoft, Amazon i tradycyjni wykonawcy zbrojeniowi aktywnie zabiegają o kontrakty wojskowe, często przyjmując inne decyzje niż Anthropic w zakresie języka kontraktów i zakresu zastosowań. Dla firm nastawionych na szybki wzrost przychodów to racjonalna strategia. Powstaje jednak asymetria konkurencyjna: spółki gotowe pójść dalej w stronę militaryzacji AI mogą liczyć na większy strumień zamówień publicznych, podczas gdy te trzymające się twardszych zasad etycznych muszą opierać się bardziej na rynku cywilnym.

Pojawia się więc pytanie, czy demokratyczne państwa nie powinny wypracować wspólnych standardów dotyczących „etycznych zamówień na AI”. Mogłyby one obejmować na przykład obowiązkowy wymóg zachowania człowieka w pętli przy decyzjach o użyciu śmiercionośnej siły, zakaz budowy w pełni autonomicznych systemów broni ofensywnej, czy większą transparentność co do rodzaju zastosowań objętych kontraktami. Takie standardy mogłyby być wypracowywane w ramach NATO, Unii Europejskiej czy OECD i następnie implementowane w prawie krajowym.

W tle toczy się także walka o opinię publiczną i nastroje pracowników. Ostatnie lata pokazały, że protesty wewnątrz firm technologicznych – od sprzeciwu wobec projektów rozpoznawania twarzy, po krytykę kontraktów z agencjami migracyjnymi – potrafią realnie wpływać na kształt umów z rządami. W przypadku umowy OpenAI z Pentagonem w USA pojawiły się nawoływania do bojkotu w ramach ruchu „QuitGPT”, a wskaźniki odinstalowań aplikacji mobilnej ChatGPT skoczyły o kilkaset procent w ciągu jednego dnia, według danych cytowanych przez media takich jak euronews.com. To sygnał, że konsumenci są coraz bardziej skłonni głosować portfelem w sprawach etycznych.

Jednocześnie te same modele, które w jednym zastosowaniu wspierają planowanie operacji wojskowych, w innym pomagają programistom, analitykom i przedsiębiorcom w codziennej pracy. To klasyczny przykład tzw. „dual use” – technologii podwójnego zastosowania. W naszym poradniku „AI Programming with Python: A Quick Tutorial for Beginners” pokazujemy, jak te narzędzia mogą być wykorzystywane w edukacji i biznesie. Tym bardziej palące staje się pytanie, gdzie kończy się odpowiedzialność za to, że te same fundamenty technologiczne mogą zasilać zarówno cywilne innowacje, jak i systemy wojskowe.

Wnioski dla prawa, etyki i geopolityki technologii: czego uczy nas casus Anthropic–Pentagon

Spór Anthropic–Pentagon to podręcznikowy przykład tego, jak sztuczna inteligencja wchodzi w sam rdzeń geopolityki. Dla osób zainteresowanych relacjami międzynarodowymi kluczowa lekcja jest prosta: wojskowe kontrakty na AI stają się jednym z głównych pól rywalizacji mocarstw. USA, Chiny, Rosja, ale także państwa średniej wielkości inwestują w systemy oparte na modelach generatywnych, by zyskać przewagę wywiadowczą, operacyjną i technologiczną. Spór o zabezpieczenia modeli to w istocie spór o to, czy państwo może domagać się pełnego podporządkowania prywatnej technologii swoim doktrynom, czy też musi zaakceptować, że niektórzy dostawcy stawiają własne, etyczne granice.

Dla praktyków i obserwatorów prawa zamówień publicznych casus ten ujawnia luki między istniejącymi ramami prawnymi a specyfiką AI. Tradycyjne przepisy, takie jak Federal Acquisition Regulation w USA czy europejskie dyrektywy przetargowe, zakładają, że przedmiotem zamówienia jest relatywnie stabilny produkt lub usługa. W przypadku AI mamy do czynienia z systemami, które ewoluują w czasie, są trudne do pełnego audytu, a ich decyzje mogą być częściowo nieprzewidywalne. Do tego dochodzą szerokie klauzule bezpieczeństwa narodowego, które ograniczają przejrzystość i kontrolę parlamentarną nad najważniejszymi kontraktami.

Potencjalne kierunki reform mogłyby obejmować między innymi:

  • wprowadzenie obowiązkowych ocen ryzyka etycznego przy zamówieniach na AI w sektorze publicznym, ze szczególnym uwzględnieniem obronności;
  • wzmocnienie mechanizmów nadzoru parlamentarnego i sądowego nad kontraktami obronnymi na technologie cyfrowe, przy jednoczesnym poszanowaniu wymogów tajemnicy państwowej;
  • opracowanie standardów audytowalności i raportowania dla dostawców AI, tak aby państwo nie było skazane na „czarne skrzynki” bez możliwości zewnętrznej weryfikacji;
  • lepsze doprecyzowanie odpowiedzialności prawnej za skutki decyzji podejmowanych przy udziale AI – zarówno po stronie państwa, jak i dostawców.

Dla osób zajmujących się etyką AI kluczowa konstatacja brzmi: prawdziwy test etycznych deklaracji firm odbywa się nie na konferencjach ani w dokumentach „principles”, lecz przy stole negocjacyjnym. W momencie, gdy przedstawiciele rządu kładą na stół projekt umowy i mówią, że brak zgody oznacza utratę kontraktu i statusu zaufanego partnera państwa, a inwestorzy liczą oczekiwane przepływy pieniężne, presja na kompromis jest ogromna. Przypadek Anthropic pokazuje, że możliwe jest powiedzenie „nie” – ale również to, że kilka dni później można wrócić do rozmów, szukając ścieżki „środka drogi”.

W kolejnych latach możemy spodziewać się kilku scenariuszy. Pierwszy to powstanie międzynarodowych standardów dotyczących wojskowego wykorzystania AI – na przykład w ramach NATO, OECD czy ONZ. Takie dokumenty mogłyby zakreślić minimalne wymogi, jak zakaz w pełni autonomicznych systemów broni ofensywnej czy wymóg człowieka w pętli. Drugi scenariusz to dalsza fragmentacja – różne bloki polityczne (zachodni, chiński, rosyjski) tworzą odmienne standardy, co prowadzi do „regulacyjnych sfer wpływów”. Trzeci, najbardziej pesymistyczny, to cicha normalizacja szeroko zakrojonych militarnych zastosowań AI bez większej debaty publicznej, w cieniu klauzul tajności i argumentów o konieczności utrzymania przewagi nad przeciwnikiem.

Patrząc na casus Anthropic–Pentagon, obserwujemy w gruncie rzeczy modelową rozgrywkę, według której będą kształtować się wszystkie przyszłe partnerstwa rząd–Big Tech w obszarze AI – od systemów nadzoru na granicach, przez monitorowanie przestrzeni publicznej, po autonomiczne platformy uzbrojenia. Dla obywateli, prawników, inżynierów i decydentów to sygnał, że nie można pozostawiać tych kwestii wyłącznie do negocjacji za zamkniętymi drzwiami.

Warto śledzić dalszy rozwój negocjacji Anthropic z Departamentem Obrony oraz porównywać je z innymi umowami, w szczególności z kontraktem OpenAI z Pentagonem i planowaną współpracą z NATO. Szerszy obraz tej „wojny modeli” i konkurencji o zaufanie użytkowników opisujemy w materiale „OpenAI vs Anthropic: walka o zaufanie użytkowników w erze „wojny modeli””. To właśnie tam widać, że stawką w sporach o wojskową AI nie są wyłącznie miliardowe kontrakty, lecz także zaufanie setek milionów użytkowników, którzy na co dzień powierzają tym samym modelom swoje dane, decyzje biznesowe i twórczość.


Leave a Reply

Your email address will not be published. Required fields are marked *