Od narzędzia biurowego do systemu celowania: jak Claude trafia na front w Iranie
Jeszcze niedawno Claude kojarzył się przede wszystkim z pisaniem maili, podpowiadaniem programistom fragmentów kodu i porządkowaniem dokumentów. Dziś ten sam model językowy Anthropic znajduje się w centrum jednej z najbardziej zaawansowanych kampanii wojskowych ostatnich lat. Według doniesień medialnych oraz wypowiedzi osób związanych z sektorem obronnym, Claude był wykorzystywany przez siły zbrojne USA w operacjach przeciwko Iranowi – w tym przy identyfikacji i priorytetyzacji celów oraz analizie danych wywiadowczych powiązanych z atakami z końca lutego 2026 r. (washingtonpost.com)
Dla odbiorcy spoza branży kluczowe jest zrozumienie, czym w ogóle jest model językowy. W odróżnieniu od klasycznego systemu uzbrojenia, nie jest to rakieta, dron ani radar. Model językowy to algorytm uczony na ogromnych zbiorach danych tekstowych (a często także obrazowych), który potrafi generować i rozumieć tekst, analizować obrazy, streszczać raporty czy odpowiadać na pytania. Sam nie „naciska spustu”, ale może wspierać ludzi w podejmowaniu decyzji – porządkując informacje, wskazując wzorce i proponując opcje działania.
W praktyce wojskowej oznacza to na przykład analizę ogromnych wolumenów danych ISR (intelligence, surveillance, reconnaissance): nagrań z dronów, zdjęć satelitarnych, przechwyconej komunikacji. System taki jak Claude może pomóc wskazać, które obiekty na obrazie są prawdopodobnymi instalacjami wojskowymi, które konwoje zasługują na pilniejszą obserwację, a które sygnały radiowe mogą świadczyć o zmianie zachowania przeciwnika. Może też generować złożone raporty dla dowództwa – w języku zrozumiałym dla ludzi, a nie tylko w postaci surowych danych.
To fundamentalnie różni się od tradycyjnych systemów uzbrojenia, które działają według z góry zaprogramowanych reguł i scenariuszy. Model językowy jest dużo bardziej elastyczny – potrafi uczyć się z nowych danych i adaptować do nieprzewidzianych sytuacji. Ta elastyczność jest jednak mieczem obosiecznym. Z jednej strony daje wojsku przewagę w szybkości analizy i koordynacji działań. Z drugiej – rodzi pytania o odpowiedzialność, przejrzystość i kontrolę nad decyzjami, które podejmowane są na podstawie rekomendacji AI.
W przypadku Anthropic napięcie jest szczególnie widoczne. Firma od początku budowała swój wizerunek w oparciu o „bezpieczną, ugruntowaną etycznie” sztuczną inteligencję. Publiczne wypowiedzi CEO Dario Amodeia jasno wskazywały, że Claude nie powinien być wykorzystywany do masowej inwigilacji obywateli ani do w pełni autonomicznych systemów broni. Kiedy Pentagon – reprezentowany przez sekretarza obrony Pete’a Hegsetha – zaczął domagać się szerszego poluzowania tych zabezpieczeń, Anthropic odmówił, akcentując, że „nie może w dobrej wierze” zgodzić się na takie warunki. (apnews.com)
Paradoks polega na tym, że równolegle, w ramach wcześniej zawartych kontraktów, Claude jest wciąż aktywnie używany przez wojsko – w tym w operacjach nad Iranem. Dla rynku AI to moment przełomowy: narzędzie dotąd kojarzone z produktywnością biurową i programowaniem staje się kluczowym elementem systemów wsparcia celowania. To zaś rodzi lawinę pytań po stronie klientów komercyjnych – od startupów defense‑tech po europejskie banki i firmy konsumenckie.
Dlaczego firmy defense‑tech odwracają się od Anthropic mimo wojskowych kontraktów
Na pierwszy rzut oka mogłoby się wydawać, że dostawca foundation modeli, który ma podpisane umowy z Pentagonem, staje się naturalnym partnerem dla startupów defense‑tech. W praktyce dzieje się coś odwrotnego: część firm integrujących systemy dla wojska zamraża projekty z Anthropic, a niektóre wręcz zrywają współpracę. Dzieje się tak mimo tego, że amerykańskie instytucje obronne wciąż aktywnie testują i wykorzystują Claude’a na polu walki.
Powody są zarówno polityczne, jak i czysto biznesowe. Po pierwsze, zasady dotyczące zastosowań ofensywnych i defensywnych są postrzegane jako niejasne. Oficjalnie Anthropic deklaruje, że dopuszcza wsparcie systemów obronnych – analizę zagrożeń, ochronę infrastruktury krytycznej – ale nie chce, aby Claude współtworzył systemy ofensywnego targeting’u, które mogłyby prowadzić do autonomicznego rażenia celów. W praktyce jednak granica między „wsparciem analitycznym” a „systemem celowania” bywa cienka, zwłaszcza gdy model wskazuje priorytetowe cele na podstawie złożonych danych.
Po drugie, wewnętrzne „guardrails” modelu – czyli zestaw zasad bezpieczeństwa i filtrów – mogą wprost blokować określone scenariusze. Inżynierowie defense‑tech skarżą się nieformalnie, że Claude w niektórych przypadkach odmawia generowania analiz taktycznych lub opisów wariantów ataku, jeśli oceni je jako potencjalnie sprzeczne z polityką bezpieczeństwa. Dla startupu, który buduje system dowodzenia na potrzeby wojska, nieprzewidywalność zachowania kluczowego komponentu jest poważnym ryzykiem technicznym.
Trzeci wymiar to reputacja i ryzyko ciągłości usług. Założyciele firm defense‑tech muszą odpowiadać przed własnymi klientami rządowymi na pytanie: „Czy możemy polegać na dostawcy, który jutro – pod presją polityczną lub wewnętrznej debaty etycznej – może jednostronnie ograniczyć albo odciąć nam dostęp?”. W obliczu groźby oznaczenia Anthropic jako „ryzyka dla łańcucha dostaw” oraz publicznych nacisków politycznych, to pytanie staje się wyjątkowo palące. (axios.com)
Do tego dochodzą czynniki biznesowe. Wielu integratorów systemów wojskowych chce mieć możliwie wysoką kontrolę nad własnym stosem technologicznym. Uzależnienie się od jednego dostawcy foundation models – niezależnie od tego, czy jest to Anthropic, OpenAI czy inny gracz – oznacza ryzyko zarówno cenowe, jak i regulacyjne. W świecie, w którym pole walki i wymagania operacyjne zmieniają się z tygodnia na tydzień, potrzebna jest szybka iteracja i modyfikacja modeli. Firmy z „etycznie ambitną” agendą, inwestujące w staranne procesy oceny ryzyka, siłą rzeczy poruszają się wolniej niż startupy gotowe przyjąć zasadę „move fast and break things”.
Inwestorzy obecni na styku sektora obronnego i AI zwracają uwagę na napięcie między idealizmem a pragmatyzmem. Jeden z amerykańskich funduszy venture capital działających w defense‑tech opisywał ten dylemat w kategoriach wyboru: „Czy chcesz mieć idealnie czyste sumienie, czy zwycięskie produkty na froncie?”. Założyciele firm z tej branży muszą podejmować codzienne decyzje, czy bliżej im do dostawców podkreślających swoje „sumienie AI”, czy do partnerów, którzy oddają priorytet w ręce klienta wojskowego.
Rezultatem jest paradoksalny krajobraz: armia USA wciąż korzysta z Claude’a w krytycznych operacjach, ale część ekosystemu defense‑tech zaczyna ustawiać się w kolejce do alternatywnych dostawców, licząc na większą swobodę kształtowania zastosowań bojowych i mniejsze ryzyko nagłych zwrotów polityki.
Konflikt interesów: opłacalność kontraktów wojskowych kontra reputacja w oczach klientów komercyjnych
Firmy budujące modele foundation, takie jak Claude, ChatGPT czy Gemini, opierają swój biznes na dwóch filarach. Z jednej strony stoją duzi klienci rządowi – wojsko, agencje wywiadowcze, administracja publiczna – oferujący długoletnie, wielomilionowe kontrakty, dostęp do unikalnych danych i szansę zapisania się w historii jako dostawca przełomowych technologii obronnych. Z drugiej strony jest szeroki rynek B2B: SaaS, fintech, retail, opieka zdrowotna, logistyka, przemysł. To ci klienci wypełniają codzienny pipeline sprzedażowy i budują szeroką adopcję technologii.
Kontrakty defense są z perspektywy przychodów niezwykle atrakcyjne. Pojedyncza umowa może być warta tyle, ile setki, a nawet tysiące średnich kontraktów z klientami komercyjnymi. Co więcej, wojskowe projekty zwykle mają długi horyzont czasowy, są mniej podatne na krótkoterminowe wahania budżetów marketingowych czy cykli koniunktury. Dla wielu firm AI to wymarzony „anchor client” – stabilna podstawa wzrostu.
Ta opłacalność ma jednak swoją cenę. Klienci komercyjni coraz uważniej przyglądają się temu, jak ich dostawcy AI angażują się w projekty militarne. W epoce raportowania ESG, rosnącej roli aktywizmu pracowniczego oraz presji ze strony organizacji pozarządowych, fakt, że model używany w call center lub aplikacji bankowej współtworzy też systemy wsparcia celowania, może stać się poważnym obciążeniem reputacyjnym.
Wyobraźmy sobie europejski bank, który musi raportować inwestorom i regulatorom ryzyka środowiskowe, społeczne i ładu korporacyjnego. Kiedyś pytania dotyczyły głównie emisji CO₂ czy zarządzania danymi klientów. Dziś w agendzie pojawia się nowe zagadnienie: „Czy dostawca naszego modelu AI jest zaangażowany w projekty wojskowe, które mogą naruszać prawo humanitarne lub budzić kontrowersje społeczne?”. Podobne dylematy dotykają firm konsumenckich – od e‑commerce po platformy społecznościowe – które obawiają się kryzysów PR i kampanii bojkotu.
Istnieje też wymiar regulacyjny. Europejski AI Act wprost wskazuje na „high‑risk systems” oraz zakazane zastosowania sztucznej inteligencji, a choć zastosowania wojskowe jako takie wyłączone są z wielu przepisów, to praktycznie trudno całkowicie oddzielić sferę obronną od cywilnej, gdy wykorzystuje się te same modele foundation. Compliance w dużych korporacjach musi zatem ocenić, czy korzystanie z modelu współtworzącego kontrowersyjne systemy militarne nie stawia firmy na kursie kolizyjnym z regulacjami UE, sankcjami czy standardami due diligence w łańcuchu dostaw.
W praktyce coraz częściej w zapytaniach ofertowych do dostawców AI pojawiają się pytania wykraczające poza tradycyjne SLA, uptime czy cennik tokenów. Pojawiają się wprost: „Czy wasze modele są wykorzystywane do ofensywnych zastosowań wojskowych, systemów masowej inwigilacji, autonomicznych systemów broni?”. To istotna zmiana: sektor enterprise zaczyna traktować zaangażowanie w projekty defense jako ryzyko, które należy ująć w macierzy zgodności i reputacji.
Scenariusz, w którym duża europejska instytucja finansowa musi tłumaczyć się nadzorcy, dlaczego korzysta z modelu aktywnie wykorzystywanego w głośnej kampanii bombardowań, nie jest już science fiction. To realne ryzyko, które wpływa na decyzje zakupowe dziś.
Lekcje dla product managerów AI: jak projektować ofertę między Pentagonem a korporacją
Dla product managerów odpowiedzialnych za rozwój produktów AI napięcie między rynkiem defense a rynkiem komercyjnym staje się jednym z kluczowych wyzwań strategicznych. Decyzje o tym, które segmenty obsługiwać, jak kształtować polityki bezpieczeństwa i jak komunikować ograniczenia zastosowań, mają bezpośredni wpływ na trajektorię firmy.
Pierwszym narzędziem może być segmentacja modeli. Niektóre laboratoria już dziś eksperymentują z tworzeniem odrębnych linii produktów – jednych stricte cywilnych, z mocno konserwatywnymi politykami bezpieczeństwa, oraz innych zaprojektowanych specjalnie dla klientów rządowych, działających w odizolowanych środowiskach, z dodatkowymi audytami i nadzorem. Takie „oddzielenie światów” nie jest jednak panaceum: wizerunkowo opinia publiczna i tak widzi jedną markę, a nie subtelne różnice między liniami produktów.
Drugim elementem jest różnicowanie safety policies w zależności od use‑case’u. PM‑owie muszą wspólnie z zespołami policy i compliance zdefiniować, jakie typy zastosowań są akceptowalne, a jakie stanowią „czerwone linie”. Czy dopuszczalne jest wsparcie dla systemów rozpoznania i ochrony antyrakietowej, ale nie dla systemów ofensywnego targetingu? Czy model może pomagać w analizie obrazu z dronów, ale nie może sugerować sekwencji ataku? Odpowiedzi muszą być przełożone na konkretne zasady wdrożone w modelu oraz na jasną komunikację wobec klientów.
Pomocny może być prosty framework decyzyjny – macierz, w której każde potencjalne zastosowanie oceniamy w czterech wymiarach: przychód, ryzyko reputacyjne, ryzyko regulacyjne i zgodność z misją firmy. Projekt o wysokim potencjale przychodowym, ale ekstremalnie wysokim ryzyku reputacyjnym i wątpliwej zgodności z deklarowaną misją, może zostać odrzucony lub poddany głębszej analizie przez wewnętrzny „ethics review board”.
Product managerowie powinni także przygotowywać scenariusze „co jeśli”. Co jeśli kontrakt wojskowy zostanie nagłośniony w mediach i wywoła protesty pracowników? Co jeśli regulator uzna dany use‑case za „high‑risk” lub zakazany? Co jeśli kluczowy klient komercyjny postawi ultimatum: „albo rezygnujecie z tego projektu defense, albo rozstajemy się z wami”? Tego typu scenariusze nie są czysto teoretyczne – opisujemy je szerzej w tekście o konflikcie między Pentagonem a Anthropic i roli „sumienia” sztucznej inteligencji.
Do praktycznych kroków należą między innymi ustanowienie wewnętrznych „red lines” dla określonych kategorii klientów (np. reżimy objęte sankcjami, projekty masowej inwigilacji), przygotowanie planów komunikacji kryzysowej na wypadek wycieku informacji o kontrowersyjnym wdrożeniu oraz ścisła współpraca z działem compliance, który musi monitorować zarówno zmieniające się regulacje, jak i oczekiwania inwestorów oraz partnerów.
Co musi wiedzieć dział compliance: ryzyka regulacyjne i odpowiedzialność za łańcuch dostaw AI
Działy compliance stanęły dziś przed wyzwaniem, którego pięć lat temu trudno było sobie wyobrazić: muszą zrozumieć, jak współpraca dostawcy modeli z wojskiem może „spływać” ryzykiem w dół łańcucha dostaw, aż do zwykłej aplikacji biznesowej czy chatbotu obsługującego klientów banku. Nie chodzi tylko o RODO, DPIA czy bezpieczeństwo danych osobowych, ale także o etykę wojenną, prawo humanitarne i sankcje.
Po pierwsze, pojawiają się nowe obowiązki informacyjne wobec klientów. Jeżeli firma korzysta z modelu, który jednocześnie jest wykorzystywany w systemach wsparcia celowania, może być zobowiązana – czy to przez regulacje, czy przez wewnętrzne standardy ESG – do ujawnienia tej informacji kluczowym partnerom biznesowym. W grę wchodzi także konieczność weryfikacji, czy model nie był trenowany na danych objętych tajemnicą państwową lub wrażliwych z punktu widzenia bezpieczeństwa międzynarodowego.
Po drugie, istnieje ryzyko nałożenia sankcji lub ograniczeń eksportowych na określone technologie AI. Jeżeli dany model zostanie uznany przez rząd USA lub UE za element krytycznej infrastruktury wojskowej, jego udostępnianie podmiotom zagranicznym może zostać ograniczone. Dla firm komercyjnych oznacza to konieczność śledzenia nie tylko regulacji branżowych, ale i geopolityki.
Europejski AI Act wprowadza rozbudowaną kategoryzację systemów wysokiego ryzyka i zakazanych zastosowań. Choć bezpośrednie użycia wojskowe z reguły znajdują się poza jego zakresem, to compliance musi analizować, czy wykorzystanie tego samego foundation modelu w sektorze cywilnym nie powoduje zbieżnych ryzyk – bo np. konfiguracja wdrożenia może zostać zakwalifikowana jako system wysokiego ryzyka w obszarach infrastruktury krytycznej czy ochrony granic. W Stanach Zjednoczonych można spodziewać się kolejnych wytycznych dotyczących odpowiedzialności dostawców AI, które będą w praktyce wpływać także na klientów spoza sektora publicznego.
Kontekst odpowiedzialności prawnej świetnie ilustrują sprawy dotyczące zastosowań cywilnych. Przykładem jest opisywana na naszym portalu sprawa nastolatka i pozwu przeciwko dostawcy chatbotów, analizowana w artykule „Tragedia nastolatka i pozew przeciwko OpenAI: gdzie przebiega granica odpowiedzialności za chatboty?”. Pokazuje ona, jak szybko debata o odpowiedzialności za AI przenosi się z sal konferencyjnych do sądów i jak szeroko są interpretowane obowiązki dostawców i użytkowników systemów AI.
W świetle tych trendów działy compliance muszą zacząć zadawać nowy zestaw pytań dostawcom AI. Nie wystarczy zapytać o lokalizację centrów danych, okres retencji danych czy mechanizmy anonimizacji. Konieczne stają się pytania o zaangażowanie w projekty defense, wewnętrzne procedury due diligence w obszarze użycia w konfliktach zbrojnych, zasady współpracy z reżimami autorytarnymi czy procedury reagowania na nadużycia.
Budowanie polityk etycznych w firmie: od deklaracji do konkretnych klauzul kontraktowych
Przypadek Anthropic i wykorzystania Claude’a w operacjach wojskowych USA może stać się dla wielu organizacji swoistym „case study z przyszłości”. Pokazuje on, jak szybko deklaracje etyczne zderzają się z realiami kontraktów, presją polityczną i oczekiwaniami różnych grup interesariuszy. Dla osób budujących firmowe polityki etyczne i governance AI to cenna lekcja.
Pierwszym krokiem jest zdefiniowanie wytycznych dotyczących dopuszczalnych sektorów i klientów. Część firm może zdecydować się na całkowite wykluczenie sektora defense i security, inne – na dopuszczenie wyłącznie zastosowań defensywnych lub humanitarnych (np. rozminowywanie, ochrona ludności cywilnej). Równie kontrowersyjne mogą być sektory takie jak adtech i masowa analiza zachowań konsumentów czy systemy nadzoru i rozpoznawania twarzy. Kluczowe jest, aby te zasady były spisane, znane pracownikom i stosowane konsekwentnie.
Drugim elementem są klauzule w umowach z dostawcami modeli. Firmy, które budują produkty na bazie foundation models, powinny wymagać od swoich partnerów przejrzystości co do innych zastosowań danej technologii. Może to przybrać formę obowiązku ujawnienia, czy model jest wykorzystywany w określonych kategoriach projektów wojskowych, a także zobowiązania do informowania o istotnych zmianach w polityce bezpieczeństwa czy portfelu klientów. W skrajnych przypadkach można rozważyć klauzule umożliwiające rozwiązanie umowy w razie ujawnienia zastosowań sprzecznych z deklarowaną misją firmy.
Trzecim filarem są procedury eskalacji spornych przypadków. Wiele organizacji powołuje dziś wewnętrzne „ethics review boards”, złożone z przedstawicieli biznesu, technologii, prawa i – coraz częściej – niezależnych ekspertów zewnętrznych. Taki organ może oceniać kontrowersyjne kontrakty, proponować rekomendacje i w razie potrzeby blokować inicjatywy sprzeczne z polityką etyczną. Równolegle warto angażować pracowników – konsultować z nimi kierunki rozwoju, umożliwiać zgłaszanie zastrzeżeń i prowadzić otwartą debatę o granicach odpowiedzialności.
Same polityki nie mogą jednak pozostać jedynie PR‑ową broszurą. Muszą przekładać się na realne decyzje: przyjmujemy czy odrzucamy kontrakt defense, kontynuujemy czy kończymy współpracę po ujawnieniu kontrowersyjnych use‑case’ów, komunikujemy otwarcie nasze wybory, czy chowamy je w cieniu NDA. Przykładowe zasady, które mogą znaleźć się w takich politykach, to między innymi: zakaz wsparcia systemów ofensywnego targetingu, obowiązek raportowania partnerstw wojskowych powyżej określonej wartości, wymaganie od dostawców AI prowadzenia regularnych audytów wpływu i publikowania streszczeń ich wyników.
Na horyzoncie widać coraz więcej spraw, w których odpowiedzialność za AI – cywilną i wojskową – staje się przedmiotem sporów sądowych i debat publicznych. Polityki etyczne stają się więc nie tylko wyrazem wartości, ale także narzędziem zarządzania ryzykiem prawnym i reputacyjnym.
Claude poza polem walki: jak wojskowe kontrowersje wpływają na adopcję narzędzi programistycznych i biznesowych
Claude to nie tylko narzędzie, które pomaga analitykom wojskowym przetwarzać dane ISR. To także fundament całej rodziny produktów komercyjnych – od asystentów biurowych po zaawansowane narzędzia dla programistów. W ostatnich latach szczególnie dynamicznie rośnie segment developer tools, opisany szerzej w tekście o rozwoju linii Claude Code jako miliardowego biznesu narzędzi dla programistów.
W tym kontekście każda kontrowersja związana z użyciem Claude’a w wojsku ma bezpośrednie przełożenie na decyzje tysięcy firm budujących zupełnie cywilne rozwiązania: systemy wspierające obsługę klienta, automatyzację back‑office, generowanie dokumentacji czy analizę danych. Dla CIO i CTO w dużych organizacjach kluczowe pytanie brzmi: „Czy chcemy, aby nasz ekosystem technologiczny był powiązany z dostawcą, którego marka może zostać trwale skojarzona z bombardowaniami i systemami celowania?”.
Vendor‑selection przestaje być wyłącznie ćwiczeniem z porównywania parametrów technicznych, cen i SLA. Coraz częściej w rozmowach pojawiają się wątki ryzyka reputacyjnego i wartości firmy. Zwłaszcza w Europie, gdzie społeczna wrażliwość na kwestie wojny i praw człowieka jest wysoka, rada nadzorcza może oczekiwać od zarządu, że wybór partnerów technologicznych będzie spójny z deklarowaną strategią ESG.
Możliwy jest scenariusz, w którym kolejne duże korporacje zaczynają wymagać od dostawców AI kontraktowych gwarancji niewykorzystywania modeli w określonych zastosowaniach wojskowych – na przykład systemach ofensywnego targetingu, masowej inwigilacji czy kontroli tłumu. Jak mógłby wyglądać rynek w takiej rzeczywistości?
Po pierwsze, część firm może wybrać ścieżkę pełnej akceptacji defense. Przyjmą wtedy świadomie ryzyko reputacyjne, licząc, że przewagi technologiczne i przychody z kontraktów wojskowych zrekompensują utratę części klientów komercyjnych. Po drugie, możliwy jest twardy rozdział linii wojskowych i cywilnych – oddzielne brandy, oddzielne zespoły, być może nawet oddzielne spółki, choć jak wspomniano wcześniej, nie zawsze rozwiąże to problem wizerunku.
Po trzecie, nie można wykluczyć, że część dostawców całkowicie zrezygnuje z kontraktów wojskowych, stawiając na budowanie zaufania w segmencie komercyjnym. W krótkim okresie oznaczałoby to rezygnację z atrakcyjnych przychodów, ale długofalowo mogłoby wzmocnić pozycję marki jako „cywilnego” partnera technologicznego, szczególnie dla klientów wrażliwych na kwestie etyczne.
Wszystko to dzieje się w cieniu coraz głośniejszych doniesień o tym, że Claude został wykorzystany w operacjach, które przyniosły realne ofiary śmiertelne, oraz w środku politycznego sporu między Białym Domem, Pentagonem a firmą, która odmawia zniesienia części zabezpieczeń etycznych. (theguardian.com) W takiej rzeczywistości dyskusja o „narzędziu dla programistów” staje się nieodłącznie związana z pytaniem, jakie wartości stoją za technologią, którą włączamy do własnego biznesu.
Przypadek Claude’a pokazuje z całą ostrością, że era niewinnej, neutralnej technologii AI już się skończyła. Każdy wybór dostawcy – czy to w projekcie wojskowym, czy w aplikacji biurowej – jest dziś jednocześnie wyborem etycznym, regulacyjnym i strategicznym. Firmy, które zrozumieją tę nową rzeczywistość najszybciej, będą miały przewagę – nie tylko na rynku, ale także w oczach klientów, regulatorów i własnych pracowników.

