Palantir kontra Anthropic: jak wojskowa AI przebudowuje wyceny spółek technologicznych

Palantir kontra Anthropic: jak wojskowa AI przebudowuje wyceny spółek technologicznych

Palantir pod presją, ale kurs rośnie: o co toczy się gra na styku AI, obronności i polityki USA

Notowania Palantir Technologies w ostatnich miesiącach stały się podręcznikowym przykładem tego, jak szybko zmienia się percepcja ryzyka w spółkach powiązanych z obronnością i sztuczną inteligencją. Po około czterech miesiącach wyraźnej korekty, zakończonej spadkiem kursu o blisko 38%, akcje spółki przeszły w dynamiczny rajd i ustabilizowały się w rejonie 145 USD za walor, przy silnym odbiciu w kilku ostatnich sesjach giełdowych. Z punktu widzenia klasycznej analizy fundamentalnej tak gwałtowne zwroty trudno uzasadnić wyłącznie zmianami w wynikach finansowych. Znacznie istotniejsze stają się czynniki polityczne, regulacyjne i geopolityczne.

Palantir jest przez inwestorów postrzegany jako specyficzny rodzaj „zakładu” na poziom i strukturę wydatków rządowych USA – zwłaszcza w sektorze obronnym oraz w służbach odpowiedzialnych za bezpieczeństwo wewnętrzne. Wzrost napięć na Bliskim Wschodzie, eskalacja rywalizacji USA–Chiny, ryzyka związane z cyberatakami oraz obawa przed systemowymi zagrożeniami sprawiają, że popyt na zaawansowane systemy analityczne i platformy AI dla wojska rośnie. Równocześnie każda informacja o sporach prawnych, śledztwach regulatorów czy napięciach między administracją a dostawcami technologii potrafi w krótkim czasie istotnie zmienić wycenę takich podmiotów.

W ostatnich tygodniach wokół Palantira i jego konkurentów pojawiły się trzy wątki, które szczególnie przyciągnęły uwagę rynku kapitałowego. Po pierwsze, pozew złożony przez Guardian Premier Solutions – kontraktora z Teksasu, który oskarża Palantir o oszustwo i naruszenie warunków umowy partnerskiej. Po drugie, formalna zapowiedź sprzedaży do 2 mln akcji Palantira przez współzałożyciela Petera Thiela. Po trzecie, decyzja administracji USA z 27 lutego 2026 r., nakazująca wszystkim agencjom federalnym zaprzestanie korzystania z technologii Anthropic i uruchamiająca półroczny okres wygaszania jej modeli AI w sektorze publicznym. To właśnie splot kontraktów rządowych, narracji bezpieczeństwa narodowego oraz kontrowersji prawno-regulacyjnych przesądza dziś o tym, jak rynek wycenia firmy z obszaru zaawansowanej AI.

Równolegle rozgrywa się szerszy wyścig o dominację w sztucznej inteligencji, w którym główne koncerny technologiczne nie wahają się sięgać po przejęcia i sojusze transgraniczne. Przykładem jest opisane szerzej w materiale przejęcie przez Metę chińskiego startupu Manus AI, będące rzadkim „mostem transakcyjnym” między USA a Chinami w czasie narastających napięć geopolitycznych. Na tym tle konflikt między Anthropic a administracją USA oraz rosnąca rola Palantira jako „infrastruktury bezpieczeństwa narodowego” nabierają dodatkowego wymiaru inwestycyjnego.

Model biznesowy Palantira i jego zależność od kontraktów rządowych

Palantir Technologies wyrosło na jednym z kluczowych dostawców oprogramowania analitycznego dla rządów, wojska, służb specjalnych i coraz szerszego grona klientów komercyjnych. Spółka buduje platformy, które integrują ogromne zbiory danych z wielu źródeł, umożliwiając analitykom, oficerom wywiadu czy menedżerom szybkie wyciąganie wniosków, modelowanie scenariuszy i podejmowanie decyzji. W praktyce oznacza to systemy wspierające planowanie operacji wojskowych, analizę ryzyk terrorystycznych, optymalizację łańcuchów dostaw czy zarządzanie infrastrukturą krytyczną.

Struktura przychodów Palantira jest nietypowa jak na firmę technologiczną kojarzoną z Doliną Krzemową. Około połowa obrotów pochodzi z kontraktów rządowych i wojskowych w USA, a segment sektora publicznego w tym kraju pozostaje głównym motorem wzrostu. W ostatnim raportowanym kwartale przychody z rynku rządowego w USA wzrosły dynamicznie, w tempie rzędu kilkudziesięciu procent rok do roku, osiągając poziom kilkuset milionów dolarów. To właśnie stabilne, długoletnie umowy z resortami obrony, agencjami wywiadowczymi czy służbą zdrowia budują atrakcyjną dla inwestorów „poduszkę” przewidywalnych przepływów pieniężnych.

Dla rynku kapitałowego kontrakty publiczne są istotne z kilku powodów. Po pierwsze, cechują się długim horyzontem – od kilku do kilkunastu lat – co ułatwia modelowanie przepływów pieniężnych i wspiera wyceny opierające się na zdyskontowanych przepływach (DCF). Po drugie, „przywiązują” klienta do dostawcy: raz wdrożone systemy analityczne stają się krytycznym elementem infrastruktury państwa, co utrudnia ich wymianę nawet wtedy, gdy pojawiają się tańsi konkurenci. Po trzecie, są w mniejszym stopniu wrażliwe na klasyczne cykle koniunkturalne – państwo musi finansować obronę i bezpieczeństwo niezależnie od aktualnej fazy cyklu gospodarki.

Ta atrakcyjność ma jednak swoją cenę. Uzależnienie od sektora publicznego oznacza silną ekspozycję na decyzje polityczne, priorytety administracji i zmiany regulacyjne. Cięcia budżetów obronnych, zmiana doktryny bezpieczeństwa czy skandale dotyczące wykorzystania danych mogą w krótkim czasie zmienić perspektywy wzrostu. Tymczasem Palantir komunikuje ambitne prognozy przychodów sięgające 2026 r. i dalej, sugerując, że kontynuacja wysokiego wzrostu jest bazowym scenariuszem. O ile dowiezienie tego guidance może uzasadniać wysokie wskaźniki wyceny, o tyle każdy cień wątpliwości – prawny, regulacyjny czy reputacyjny – może w takich warunkach prowadzić do przyspieszonej korekty kursu.

Dodatkowym elementem tej układanki jest rosnąca rola AI w armii i administracji. Palantir rozwija rozwiązania określane jako „human-in-the-loop” – człowiek pozostaje w procesie decyzyjnym, a systemy AI mają przede wszystkim wspierać, a nie zastępować decyzje. Ten model jest szerzej analizowany w materiale poświęconym etycznym granicom współpracy Big Tech z Pentagonem, ale już dziś widać, że spółki potrafiące pogodzić oczekiwania wojska z rosnącą wrażliwością opinii publicznej na kwestie etyczne zyskują przewagę konkurencyjną.

Pozew Guardian Premier Solutions przeciwko Palantirowi: skala prawna kontra skala percepcji rynku

Na tle długoterminowych kontraktów liczonych w setkach milionów dolarów pozew złożony przez Guardian Premier Solutions z San Antonio wygląda na sprawę marginalną. Kontraktor obronny zarzuca Palantirowi m.in. oszustwo i naruszenie warunków umowy partnerskiej. Spór dotyczy współpracy przy obsłudze projektów dla sektora publicznego – a więc tego obszaru, który jest dla spółki kluczowy z punktu widzenia wzrostu i narracji inwestycyjnej.

Tego typu konflikty między podwykonawcami a głównymi dostawcami oprogramowania w sektorze obronnym nie są niczym niezwykłym. Najczęściej dotyczą zakresu umowy (kto za co odpowiada), podziału przychodów z realizowanych kontraktów, własności intelektualnej (kto ma prawo rozwijać określone moduły oprogramowania) oraz terminów i jakości wykonania zobowiązań. Wartość roszczenia w tym konkretnym sporze jest relatywnie niewielka – według dostępnych informacji nie przekracza ona 1 mln USD – a więc sama w sobie nie stanowi istotnego zagrożenia dla kondycji finansowej Palantira. Skala biznesu spółki liczona jest dziś w miliardach dolarów przychodów rocznie (forbes.com).

Znacznie ważniejszy jest jednak wymiar reputacyjny i sygnałowy tej sprawy. Pytanie, które zadaje sobie część inwestorów, brzmi: czy pozew wskazuje na systemowy problem w sposobie, w jaki Palantir traktuje partnerów i podwykonawców, czy też jest to jednostkowy konflikt interesów? Jeżeli podobne roszczenia zaczęłyby się powtarzać, mogłoby to sugerować ryzyko napięć w całym łańcuchu dostaw, wpływać na zdolność spółki do budowania nowych sojuszy lub nawet stać się pretekstem do zainteresowania ze strony regulatorów.

Rynek finansowy ma tendencję do „nadwyceniania” ryzyk prawnych w spółkach o bardzo wysokich wskaźnikach wyceny, takich jak relacja ceny do zysku (C/Z) sięgająca wielokrotności średniej dla rynku. W przypadku Palantira część analityków zwraca uwagę, że przy wycenie opartej na bardzo ambitnych oczekiwaniach co do przyszłych zysków nawet niewielki wzrost niepewności – czy to w obszarze prawa, czy reputacji – może działać jak zapalnik dla krótkoterminowych korekt. Stąd pozornie symboliczny pozew kontraktora może mieć przełożenie na dyskonto, z jakim rynek zaczyna wyceniać przyszłe przepływy.

Dla inwestorów praktyczna lekcja jest następująca: nie wystarczy śledzić samego pozwu. Należy monitorować, czy pojawiają się kolejne roszczenia, czy temat interesuje organy nadzoru, czy audytorzy i regulatorzy sygnalizują jakiekolwiek zastrzeżenia. Pojedynczy spór jest w sektorze obronnym normą; seria podobnych spraw staje się już sygnałem zmiany profilu ryzyka.

Sprzedaż akcji przez Petera Thiela: jak interpretować ruchy insiderów w spółkach wysokiego wzrostu

Kolejnym elementem, który w ostatnich dniach przyciągnął uwagę rynku, była informacja o złożeniu przez Petera Thiela, współzałożyciela Palantira, formularza umożliwiającego sprzedaż do 2 mln akcji klasy A o łącznej szacunkowej wartości około 280 mln USD. Dokumentem tym jest Form 144 – standardowy w amerykańskim porządku prawnym formularz, w którym tzw. insider, czyli osoba powiązana ze spółką (np. założyciel, członek zarządu, duży akcjonariusz), zapowiada planowaną sprzedaż papierów wartościowych.

Warto podkreślić dwa istotne szczegóły. Po pierwsze, Form 144 nie oznacza natychmiastowej transakcji – jest zapowiedzią możliwej sprzedaży w określonym oknie czasowym, a nie potwierdzeniem jej wykonania. Po drugie, w tym przypadku plan sprzedaży został ustanowiony już 14 listopada 2025 r., a potencjalny start transakcji wyznaczono na 2 marca 2026 r. (bithub.pl). Wskazuje to na klasyczny, wcześniej zaplanowany proces dywersyfikacji majątku, a nie na paniczną reakcję na bieżące wydarzenia rynkowe czy prawne.

Mimo to ruchy insiderów, nawet relatywnie niewielkie wobec kapitalizacji spółki, potrafią wywołać nerwowość, zwłaszcza w okresach podwyższonej zmienności i bardzo wysokiej wyceny. W zbiorowej wyobraźni inwestorów sprzedaż akcji przez założyciela nierzadko interpretowana jest jako „głosowanie nogami” – sygnał, że insider uznaje wycenę za wygórowaną lub wątpi w dalszy wzrost. W praktyce motywacje są zwykle znacznie bardziej złożone i obejmują m.in. potrzebę dywersyfikacji majątku, finansowanie innych przedsięwzięć czy kwestie podatkowe.

Z tego powodu przy analizie transakcji insiderów warto zastosować prostą ramę interpretacyjną. Po pierwsze, należy porównać skalę sprzedaży z łącznym pakietem posiadanych akcji – odsprzedaż kilku procent udziałów ma inną wymowę niż redukcja większości pozycji. Po drugie, istotna jest powtarzalność – czy mamy do czynienia z jednorazowym zdarzeniem, czy serią kolejnych transakcji w krótkim czasie. Po trzecie, trzeba zwrócić uwagę na kontekst: czy sprzedaż odbywa się w ramach z góry ustalonego planu (np. 10b5-1), czy jest realizowana ad hoc, bez wcześniejszej zapowiedzi.

Wreszcie, należy pamiętać o kontrargumencie: racjonalna dywersyfikacja majątku przez założycieli spółek technologicznych jest naturalnym zjawiskiem. Osoby, które przez lata budowały wartość firmy, często mają większość swojego majątku skoncentrowaną w jednym aktywie. Redukcja tej koncentracji nie musi oznaczać braku wiary w biznes – przeciwnie, bywa uznawana przez doradców finansowych za działanie odpowiedzialne. Z perspektywy inwestora indywidualnego kluczowe jest, aby nie reagować wyłącznie na nagłówki, lecz sięgać do danych w raportach SEC, analizować długoterminowy trend zachowań insiderów i zestawiać go z fundamentami spółki.

Decyzja administracji USA wobec Anthropic: „wypadnięcie z łask” i geopolityczna przewaga Palantira

27 lutego 2026 r. administracja prezydenta USA ogłosiła decyzję o natychmiastowym wstrzymaniu korzystania z technologii Anthropic przez wszystkie agencje federalne, z sześciomiesięcznym okresem wygaszania tam, gdzie modele AI tej firmy są już głęboko zintegrowane z infrastrukturą publiczną (theguardian.com). W praktyce oznacza to, że kluczowe instytucje – od resortów gospodarczych po służby odpowiedzialne za bezpieczeństwo – muszą w krótkim czasie znaleźć alternatywę dla rozwiązań Anthropic, w tym dla modelu Claude.

Formalnym uzasadnieniem decyzji są kwestie bezpieczeństwa narodowego i ryzyk regulacyjnych. W tle toczy się spór o to, gdzie przebiega granica między uprawnionymi oczekiwaniami państwa wobec dostawców technologii a autonomią firm w kształtowaniu zasad etycznych korzystania z AI. Anthropic, znane z promowania koncepcji „constitutional AI” oraz mocnych ograniczeń dotyczących użycia swoich modeli w obszarze masowej inwigilacji czy w pełni autonomicznej broni, weszło w otwarty konflikt z administracją, która oczekiwała dalszego rozluźnienia tych barier.

Dla inwestorów kluczowa jest jednak kwestia konkurencyjnego krajobrazu. Palantir, który od lat stawia na model „człowieka w pętli” i silny nacisk na kontrolę decyzyjną, może w oczach decydentów politycznych jawić się jako „bezpieczniejszy” i bardziej przewidywalny partner dla administracji i wojska. Eliminacja Anthropic z katalogu preferowanych dostawców państwa tworzy przestrzeń dla przesunięcia strumienia kontraktów w stronę innych graczy – w tym właśnie Palantira oraz firm takich jak OpenAI czy Google, które są skłonne do bardziej elastycznego negocjowania warunków współpracy z rządem (wifc.com).

Konsekwencje dla samego Anthropic wykraczają poza prostą utratę przychodów. Spółka, która budowała swoją markę na odpowiedzialnym podejściu do ryzyk AI, znalazła się w centrum politycznego konfliktu. Debata wokół bezpieczeństwa i etyki w Anthropic – szerzej opisana w tekście o dylematach etycznych badaczy AI – zaczyna bezpośrednio wpływać na to, jak politycy i regulatorzy oceniają firmę jako partnera państwa. Wizerunek „etycznego buntownika” może być atutem w oczach części opinii publicznej, ale jednocześnie staje się obciążeniem w relacjach z administracją, która oczekuje bezwarunkowej współpracy w obszarach uznanych za kluczowe dla bezpieczeństwa narodowego.

Z perspektywy rynku decyzję administracji można interpretować jako początek „regulacyjno-politycznej selekcji” wśród dostawców AI do sektora publicznego. Państwo coraz wyraźniej sygnalizuje, jakie modele rozwoju sztucznej inteligencji akceptuje – od preferencji dla rozwiązań z pełną kontrolą państwa, poprzez nacisk na interoperacyjność, po określone standardy przejrzystości i audytowalności. Firmy, które nie będą w stanie wpisać się w tę matrycę oczekiwań, ryzykują marginalizację w jednym z najważniejszych segmentów rynku AI.

Bezpieczeństwo narodowe jako „tarcza” i „miecz” dla wycen firm AI

Narracja bezpieczeństwa narodowego odgrywa dziś w wycenach firm AI podwójną rolę. Z jednej strony działa jak tarcza, wspierając długoterminowy popyt na zaawansowane systemy analityczne i platformy AI. Rosnąca liczba cyberataków na infrastrukturę krytyczną, konflikty regionalne na Bliskim Wschodzie, napięcia w rejonie Morza Południowochińskiego czy wyścig technologiczny między mocarstwami sprawiają, że rządy są gotowe przeznaczać coraz większe środki na cyfrowe narzędzia obrony. Dla spółek takich jak Palantir oznacza to trwałą bazę przychodów i możliwość skalowania działalności w oparciu o kilkuletnie kontrakty.

Z drugiej strony, im silniej firma wiąże się z aparatem państwa i strukturami wywiadowczymi, tym bardziej jej wycena staje się zakładnikiem decyzji polityków, poziomu budżetów obronnych i potencjalnych skandali. Ujawnienie nadużyć przy wykorzystaniu danych, nieudane operacje wojskowe z udziałem systemów AI czy masowe protesty społeczne przeciwko „militaryzacji sztucznej inteligencji” mogą w krótkim czasie zmienić nastawienie rynku względem dotychczasowych faworytów.

W tym kontekście ważne są nie tylko relacje między rządem USA a krajowymi dostawcami AI, ale także globalna architektura przepływów technologii i kapitału. Rywalizacja USA–Chiny w obszarze sztucznej inteligencji nie wyklucza powstawania „mostów transakcyjnych”, o czym świadczy choćby wspomniane już przejęcie Manus AI przez Metę, opisane w artykule o ekspansji Big Tech w Chinach. Tego typu transakcje pokazują, że mimo oficjalnych ograniczeń i sankcji, globalny ekosystem AI pozostaje silnie powiązany, a decyzje polityczne jednego państwa mogą mieć nieoczywiste skutki dla konkurencyjności firm w innym regionie.

Dla inwestorów istotne jest zrozumienie pojęć takich jak „premia za ryzyko geopolityczne” czy „dyskontowanie przyszłych kontraktów obronnych”. W uproszczeniu premia za ryzyko geopolityczne to dodatkowy zwrot, jakiego oczekuje rynek od inwestycji w aktywa narażone na niestabilność polityczną, konflikty zbrojne czy sankcje. Im wyższe postrzegane ryzyko, tym wyższej premii domagają się inwestorzy – co przy niezmienionych przepływach gotówkowych prowadzi do niższej bieżącej wyceny. Z kolei dyskontowanie przyszłych kontraktów obronnych oznacza, że rynek już dziś w cenie akcji uwzględnia oczekiwane, choć jeszcze niezawarte, umowy z resortami obrony i innymi agencjami rządowymi.

Można zatem zbudować trzy proste scenariusze dla spółek takich jak Palantir. W scenariuszu nasilenia napięć zbrojnych i wyścigu zbrojeń w AI rośnie prawdopodobieństwo nowych kontraktów, co wspiera wyceny, ale równocześnie zwiększa się premia za ryzyko geopolityczne – i każda informacja o potencjalnych skandalach może wywołać gwałtowne reakcje rynku. W scenariuszu „odwilży” geopolitycznej tempo wzrostu wydatków obronnych może się obniżyć, a inwestorzy zaczną większą wagę przykładać do segmentu komercyjnego spółek AI. Wreszcie, w scenariuszu serii skandali i śledztw dotyczących wykorzystania AI w wojsku – co omawia szczegółowo materiał o granicach współpracy Big Tech z Pentagonem – rynek może zacząć systemowo obniżać wyceny wszystkich graczy silnie związanych z aparatem państwa, niezależnie od ich indywidualnych zasług i wyników.

Wnioski dla inwestorów: jak czytać sygnały prawne, polityczne i insiderskie w sektorze AI i obronności

Przypadek Palantira i Anthropic pokazuje, że tradycyjna analiza finansowa jest dziś niewystarczająca w segmencie spółek budujących technologie na styku AI i obronności. Dla inwestorów najważniejsze jest umiejętne odróżnianie skali realnego ryzyka od natężenia szumu informacyjnego.

W obszarze pozwów i ryzyk prawnych kluczowe jest rozróżnienie między ekspozycją finansową a wpływem na reputację oraz relacje z rządem. Pozew na kwotę poniżej 1 mln USD nie zmieni wyników finansowych Palantira, ale jeśli stanie się początkiem serii podobnych roszczeń, może sygnalizować głębsze problemy w kulturze współpracy z partnerami. Inwestor powinien śledzić, czy spory mają charakter jednostkowy, czy przekształcają się w trend, który może zainteresować regulatorów lub kongresowe komisje nadzorcze.

Równie ważna jest umiejętność interpretacji sprzedaży akcji przez insiderów. Sam fakt złożenia formularza Form 144 nie jest „czerwoną flagą”; dopiero analiza wielkości sprzedaży w relacji do całkowitego pakietu, jej powtarzalności i tego, czy wynika z wcześniej ustalonego planu, czy z nagłej decyzji, pozwala formułować sensowne wnioski. Dane z raportów SEC są tu wiarygodnym punktem odniesienia, natomiast nagłówki medialne – jedynie punktem wyjścia do dalszej analizy.

Decyzje administracji dotyczące konkretnych dostawców AI, takie jak zakaz korzystania z technologii Anthropic w agencjach federalnych, należy traktować jako silne sygnały co do preferowanego modelu rozwoju sztucznej inteligencji. Widać wyraźnie napięcie między podejściem „human-in-the-loop”, stawiającym na kontrolę państwa i możliwość audytu decyzji, a wizją bardziej autonomicznych systemów, w których ciężar odpowiedzialności rozkłada się inaczej. Dla inwestorów oznacza to konieczność zadawania pytań nie tylko o techniczną przewagę danego modelu AI, lecz także o jego „zgodność polityczną” z dominującą linią administracji.

Budując strategie inwestycyjne w sektorze obronności i AI, warto rozważyć dywersyfikację między firmami stricte wojskowymi a podmiotami posiadającymi silny segment komercyjny. Pozwala to częściowo zredukować ryzyko związane z cyklicznością wydatków obronnych oraz zmianami doktryny bezpieczeństwa. Jednocześnie trzeba pamiętać, że wysoka wycena wskaźnikowa, typowa dla liderów AI, niesie ze sobą zwiększone ryzyko gwałtownych korekt w sytuacji zmiany narracji – niezależnie od tego, czy chodzi o pozwy, spory etyczne, czy konflikty z regulatorami.

Na koniec warto podkreślić, że analiza takich spółek jak Palantir czy Anthropic wymaga łączenia kompetencji z kilku obszarów: finansów, geopolityki i regulacji technologicznych. Inwestorzy powinni równolegle czytać raporty finansowe, śledzić decyzje rządów oraz debatę etyczną wokół sztucznej inteligencji. Kolejne analizy poświęcone regulacjom, etyce i geopolityce w AI – w tym materiały o sporach etycznych w Anthropic czy transakcjach transgranicznych w sektorze – mogą stać się cennym uzupełnieniem klasycznej analizy sprawozdań finansowych i prognoz wyników.


Leave a Reply

Your email address will not be published. Required fields are marked *