Od wizji Larry’ego Ellisona do rzeczywistości państwa obliczeniowego
Kilkanaście lat temu Larry Ellison, współzałożyciel i wieloletni szef Oracle, mówił o państwie jako o „największym kliencie chmury”. W jego wizji administracja publiczna miała stopniowo przenosić swoje krytyczne systemy – od finansów po obronność – do zintegrowanych platform danych zarządzanych jak jednolita infrastruktura. W tamtym czasie brzmiało to jak agresywny marketing technologiczny, wyprzedzający dojrzałość instytucji państwowych. Dziś ta wizja staje się praktyką.
Państwo obliczeniowe to nie tylko cyfrowe formularze podatkowe i elektroniczny obieg dokumentów. To model, w którym kluczowe funkcje państwa – administracja, bezpieczeństwo, obronność, zdrowie publiczne – są projektowane wokół infrastruktury danych, chmury i oprogramowania. Zamiast wielu izolowanych systemów mamy spójne środowiska danych, w których informacje z różnych resortów są łączone, modelowane i wykorzystywane do podejmowania decyzji w czasie zbliżonym do rzeczywistego.
Najbardziej zaawansowanym polem tej transformacji staje się sektor obronny. Firmy takie jak Palantir czy Anduril budują dla wojska i służb specjalnych „operacyjne systemy operacyjne” – warstwy oprogramowania, które integrują rozpoznanie, logistykę, planowanie i ewaluację działań na poziomie całych teatrów operacyjnych. To już nie tylko narzędzia analityczne, lecz de facto cyfrowy mózg systemu obrony.
Dla Polski, która po agresji Rosji na Ukrainę przyspieszyła modernizację armii i wydatki na obronność, pytanie nie brzmi, czy wejść w logikę państwa obliczeniowego, lecz jak to zrobić. Jak pogodzić potrzebę integracji z sojusznikami i korzystania z ich technologii z ambicją zachowania suwerenności decyzyjnej i kontroli nad danymi? I jak odpowiedzieć na nowe ryzyka, jakie niesie militaryzacja sztucznej inteligencji – od błędów modeli po geopolityczny wyścig zbrojeń w obszarze AI?
Coraz wyraźniej widać, że dane operacyjne – o ruchu wojsk, logistyce, łańcuchach dostaw, finansowaniu zbrojeń – stają się formą władzy porównywalną z tradycyjną przewagą militarną czy energetyczną. Ten nowy wymiar wpływu rodzi zarówno szanse, jak i słabo jeszcze rozumiane ryzyka.
Czym jest państwo obliczeniowe: dane operacyjne jako nowa infrastruktura władzy
Państwo obliczeniowe można zrozumieć bez znajomości technicznych detali, jeśli spojrzy się na nie przez pryzmat przepływu danych. Tradycyjnie władza państwowa opierała się na prawie, budżecie i fizycznej infrastrukturze. Dziś coraz większą rolę odgrywa infrastruktura danych – sposób, w jaki państwo zbiera, łączy i interpretuje informacje o swoim terytorium, obywatelach i otoczeniu międzynarodowym.
Po pierwsze, dane operacyjne stają się „paliwem sterującym” państwem. Nie chodzi już wyłącznie o kwartalne statystyki gospodarcze czy dane spisowe, lecz o strumienie informacji w czasie rzeczywistym: ruch graniczny i lotniczy, logistykę wojskową, przepływy finansowe związane z pomocą wojskową, obciążenie linii produkcyjnych w przemyśle zbrojeniowym, sygnały z sensorów rozmieszczonych na granicach i wokół infrastruktury krytycznej. To z tych strumieni powstają codzienne decyzje – od rozmieszczenia jednostek po priorytetyzację inwestycji w obronę przeciwlotniczą.
Po drugie, warstwa oprogramowania pełni funkcję „systemu nerwowego” państwa. Platformy klasy Palantir nie są jedynie bazami danych – tworzą spójne modele decyzyjne, łącząc informacje z wielu resortów i agencji. W obronności mówimy tu często o koncepcji cyfrowego bliźniaka teatru działań: zestawie modeli, wizualizacji i symulacji odwzorowujących logistykę, pozycje własnych i sojuszniczych wojsk, dane z rozpoznania satelitarnego, radarowego i z bezzałogowców. Dowódca nie widzi już pojedynczych raportów, ale skondensowaną, dynamicznie aktualizowaną mapę sytuacji wraz z prognozami.
Przykładem może być zarządzanie pomocą wojskową dla Ukrainy. Dane o dostępności sprzętu, możliwościach transportu, stanie magazynów w różnych krajach i priorytetach operacyjnych muszą być łączone w jeden obraz, aby decydować, co i kiedy można przekazać, nie osłabiając własnej gotowości. Strumienie informacji płyną między państwami NATO, przemysłem obronnym i organizacjami międzynarodowymi, a odpowiednie oprogramowanie porządkuje je i zamienia na konkretne decyzje.
Po trzecie, rośnie waga tego, kto faktycznie kontroluje przepływy danych. Władza nie polega tylko na tym, kto podpisuje rozkazy, ale również na tym, kto decyduje, jakie informacje i w jakiej formie trafią na biurka decydentów. Operatorzy kluczowych platform danych – czy to instytucje państwowe, czy prywatne firmy – zyskują nową, infrastrukturalną władzę. Decydują, jakie źródła danych są priorytetowe, jak działają filtry, jakie algorytmy AI interpretują obrazy z dronów czy sygnały radarowe.
To władza mniej widoczna niż ustawy czy budżet, ale w praktyce kształtująca rzeczywistość polityczną i wojskową. Jeśli konkretne zdarzenie nie zostanie odpowiednio „podświetlone” przez system analityczny, może w ogóle nie trafić do świadomości decydentów – i pozostać poza zakresem możliwych działań.
Od Palantir do Anduril: jak prywatne platformy danych przejmują operacyjną warstwę obronności
Palantir jest jednym z najbardziej znanych dostawców oprogramowania dla wojska i służb specjalnych. Jego platformy – Gotham i Foundry – zostały zaprojektowane tak, aby integrować dane wywiadowcze, rozpoznawcze, logistyczne i operacyjne w jednym środowisku. W praktyce oznacza to, że analityk lub oficer może na jednym ekranie łączyć informacje z dronów, satelitów, baz danych wywiadu, systemów logistycznych i raportów terenowych, a następnie symulować różne scenariusze działań.
W Departamencie Obrony USA Palantir był wykorzystywany między innymi do misji w Afganistanie i Iraku, analiz zagrożeń terrorystycznych oraz planowania logistyki. Publicznie dostępne przykłady pokazują, jak platforma umożliwia śledzenie powiązań między osobami i organizacjami, identyfikację wzorców ataków improwizowanymi ładunkami wybuchowymi czy optymalizację tras konwojów. Palantir staje się w ten sposób warstwą pośrednią między państwem jako suwerenem a jego siłami zbrojnymi – cyfrową przestrzenią, w której powstają i są weryfikowane decyzje o użyciu siły.
Rodzi to pytanie o zależność od prywatnego dostawcy. Jeśli kluczowe procesy operacyjne i analityczne są zorganizowane wokół jednej, komercyjnej platformy, państwo naraża się na ryzyko technologicznego „lock-in”. Zmiana dostawcy może być w praktyce nierealna, bo wymagałaby migracji ogromnych wolumenów danych, przeszkolenia personelu i odtworzenia skomplikowanych modeli decyzyjnych.
Anduril reprezentuje kolejny etap tej samej logiki, przesuwając ciężar z analityki na autonomię systemów. Firma buduje sieci sensorów, systemy dronów i oprogramowanie Lattice OS, które łączy dane z rozproszonych urządzeń w jedną, dynamiczną mapę zagrożeń. W zastosowaniach takich jak ochrona granic, obrona przeciwdronowa czy nadzór nad infrastrukturą krytyczną człowiek staje się coraz częściej recenzentem rekomendacji systemu, a nie niezależnym analitykiem sytuacji.
Lattice OS zbiera w czasie niemal rzeczywistym informacje z kamer, radarów, czujników akustycznych i bezzałogowców. Algorytmy rozpoznają wzorce, klasyfikują obiekty, przewidują trajektorie ruchu i sygnalizują potencjalne zagrożenia. Operator otrzymuje już przetworzony obraz wraz z rekomendacjami: które obiekty są priorytetowe, gdzie skierować patrol, jak skonfigurować systemy przeciwdronowe. To krok w stronę półautonomicznej obrony perymetrycznej, w której rola człowieka ogranicza się do zatwierdzania propozycji systemu.
Platformy Palantir i Anduril są stopniowo integrowane z architekturą NATO i systemami sojuszników. Wymaga to ustalania wspólnych standardów wymiany danych, interoperacyjnych interfejsów i wspólnych centrów analitycznych. Wraz z tym procesem przesuwa się punkt ciężkości innowacji wojskowych – z tradycyjnego przemysłu zbrojeniowego w stronę firm software’owych i data-driven, które stają się dostawcami „mózgu” sił zbrojnych.
Dla państw średniej wielkości, takich jak Polska, ma to daleko idące konsekwencje. Z jednej strony integracja z tymi systemami zwiększa interoperacyjność z głównymi sojusznikami i przyspiesza dostęp do zaawansowanych zdolności analitycznych. Z drugiej – opieranie się na zagranicznych licencjach i chmurze zarządzanej przez podmioty z USA rodzi pytania o suwerenność technologiczną, kontrolę nad danymi i możliwość samodzielnego rozwoju w przyszłości.
Polski kontekst: modernizacja armii, budżet na zbrojenia i wyścig o „mózg” sił zbrojnych
Po 2022 r. Polska znacząco zwiększyła wydatki na obronność, sięgając poziomów należących do najwyższych w NATO w relacji do PKB. Wieloletnie programy zbrojeniowe obejmują zakupy czołgów, haubic, systemów obrony powietrznej i samolotów głównie od partnerów z USA i Korei Południowej. W debacie publicznej dominuje perspektywa „żelaza”: ile czołgów, ile wyrzutni, ile samolotów uda się pozyskać w najbliższych latach.
Znacznie rzadziej pojawia się pytanie o warstwę obliczeniową tej modernizacji. Jak będą zintegrowane systemy zarządzania polem walki? Kto będzie kontrolował platformy do analizy danych wywiadowczych i rozpoznawczych? Jakie kompetencje w zakresie AI i analityki danych powstaną w kraju, a jakie zostaną w praktyce „wynajęte” od partnerów?
Inwestowanie wyłącznie w hardware bez równoległej budowy własnej warstwy danych niesie kilka istotnych ryzyk. Po pierwsze, utrudnia efektywne planowanie logistyki i utrzymania sprzętu. Bez zintegrowanego systemu danych o zużyciu części, cyklach serwisowych, dostępności amunicji i przepustowości transportu trudno jest zapewnić realną gotowość bojową. Po drugie, wzmacnia zależność od zagranicznych platform analitycznych – jeśli dane z polskich systemów wywiadowczych i rozpoznawczych są przetwarzane głównie w chmurze dostawcy zewnętrznego, możliwość samodzielnej analizy i rozwoju własnych modeli jest ograniczona.
Po trzecie, brak krajowych kompetencji w zakresie AI i MLOps w sektorze obronnym może w długim okresie ograniczać zdolność do audytu i modyfikacji zagranicznych systemów. Państwo staje się wówczas nie tylko klientem, ale również zakładnikiem obcych cykli rozwojowych i priorytetów produktowych.
Można jednak wyobrazić sobie alternatywne scenariusze. Jeden z nich zakłada głęboką integrację z rozwiązaniami klasy Palantir czy Anduril – poprzez licencje, wspólne centra danych z partnerami z USA i udział w sojuszniczych projektach rozwojowych. Drugi to model hybrydowy, w którym Polska wykorzystuje sojusznicze platformy dla części zadań (np. wymiany danych w ramach NATO), ale równolegle rozwija własne moduły analityczne i systemy dowodzenia, budowane we współpracy z polskimi uczelniami i firmami technologicznymi.
W takim modelu część krytycznej analityki – np. przetwarzanie danych z krajowych sensorów, modele wsparcia decyzji dla polskich dowódców czy systemy planowania logistyki – pozostaje pod pełną kontrolą krajowych podmiotów. Sojusznicze platformy pełnią rolę warstwy integracyjnej, ale nie jedynego miejsca, w którym powstają kluczowe wnioski.
W tle pozostaje kwestia finansowania. Każdy miliard złotych przeznaczony na „cyfrowy mózg armii” konkuruje o uwagę z wydatkami na widoczny sprzęt. Tymczasem to właśnie warstwa obliczeniowa decyduje w długim okresie o efektywności wykorzystania uzbrojenia. Czołgi i haubice, które nie są wpięte w zaawansowany system dowodzenia, rozpoznania i logistyki, stają się w praktyce znacznie mniej skuteczne.
Warto rozważyć kryteria zakupowe i regulacyjne, które wymuszałyby przekazywanie części kompetencji – kodu, danych, modeli – do polskich podmiotów. Mogłoby to oznaczać m.in. obowiązek instalacji lokalnych instancji systemów w krajowych centrach danych, wymagania interoperacyjności na poziomie API oraz prawa do audytu modeli AI używanych w kluczowych zastosowaniach obronnych.
Militaryzacja sztucznej inteligencji: od przewagi informacyjnej do automatyzacji decyzji o użyciu siły
Sztuczna inteligencja w obronności kojarzy się często z autonomicznymi dronami czy robotami bojowymi. W praktyce większość wdrażanych dziś systemów AI ma charakter mniej spektakularny, ale bardziej wszechobecny: to algorytmy klasyfikacji, predykcji i rekomendacji działające w tle. Wykrywają anomalie w ruchu statków, oceniają ryzyko związane z konkretnymi osobami lub organizacjami, priorytetyzują cele do obserwacji czy ewentualnego uderzenia.
Takie systemy generują trzy zasadnicze grupy ryzyk. Pierwsza to ryzyka epistemiczne – wynikające z natury samych modeli. Algorytmy uczą się na danych historycznych, które są niepełne, stronnicze i często obarczone błędami. Fałszywe korelacje mogą prowadzić do błędnej oceny ryzyka lub błędnej identyfikacji celów. W warunkach napięcia międzynarodowego pojedyncza błędna klasyfikacja – np. uznanie cywilnego obiektu za cel wojskowy na podstawie wzorców ruchu – może eskalować konflikt.
Druga grupa to ryzyka organizacyjne i polityczne. Gdy system AI staje się dla użytkowników „czarną skrzynką”, wzrasta pokusa przerzucania odpowiedzialności na technologię. Dowódcy i politycy mogą tłumaczyć swoje decyzje tym, że „tak podpowiedział algorytm”, co rozmywa łańcuch odpowiedzialności za użycie siły. Jednocześnie pojawia się presja czasu – jeśli przeciwnik wykorzystuje szybsze systemy decyzyjne, rośnie pokusa automatyzacji również po naszej stronie.
Trzecia grupa to ryzyka geopolityczne. Wyścig zbrojeń w obszarze AI – między USA, Chinami, Rosją i innymi państwami – sprzyja obniżaniu standardów testowania i etycznego nadzoru. W praktyce wiele systemów będzie testowanych na żywych konfliktach, gdzie priorytetem jest przewaga operacyjna, a nie przejrzystość modeli. Państwa średniej wielkości, w tym Polska, mogą zostać wciągnięte w ekosystemy technologiczne, nad którymi nie będą miały pełnej kontroli.
Warto w tym kontekście zwrócić uwagę na wewnętrzne głosy ostrzegawcze w branży AI. Dobrym przykładem jest opisana na naszym portalu historia badaczki, która porzuciła karierę literacką, aby zajmować się etyką systemów AI w firmie komercyjnej. Tekst o etyce w Anthropic pokazuje, że nawet w sektorze prywatnym rośnie świadomość ryzyka niekontrolowanej eskalacji systemów autonomicznych i braku odpowiednich zabezpieczeń.
Jeśli takie ostrzeżenia są zasadne w obszarach cywilnych, tym bardziej powinny być traktowane poważnie w obronności. Błędy systemów AI używanych do moderacji treści czy rekomendacji produktów są kłopotliwe, ale odwracalne. Błędy w systemach wspierających decyzje o użyciu siły mogą mieć natychmiastowe i nieodwracalne skutki: ofiary cywilne, eskalację konfliktu, naruszenie prawa międzynarodowego. Dlatego dyskusja o militarnej AI musi obejmować nie tylko aspekty techniczne, ale i prawne, etyczne oraz geopolityczne.
Suwerenność cyfrowa i architektura danych: lekcje z obronności dla całego państwa
Logika państwa obliczeniowego nie kończy się na obronności. Podobne mechanizmy widać w transporcie, ochronie zdrowia czy finansach publicznych. Systemy zarządzania ruchem w miastach, elektroniczna dokumentacja medyczna, platformy analityczne w administracji skarbowej – wszystkie one opierają się na infrastrukturze danych, chmurze i modelach AI.
W tym kontekście kluczowe staje się pojęcie suwerenności cyfrowej. Obejmuje ono trzy zasadnicze pytania: kto kontroluje infrastrukturę danych (chmurę, centra danych, sieci), kto ma dostęp do surowych logów i może je przetwarzać oraz kto ma prawo trenować i audytować modele AI stosowane w kluczowych usługach publicznych. Odpowiedzi na te pytania determinują nie tylko bezpieczeństwo danych obywateli, ale również zdolność państwa do samodzielnego podejmowania decyzji.
Można wyróżnić dwa skrajne modele. Pierwszy to pełna zależność od zagranicznych platform danych i modeli – państwo korzysta z gotowych rozwiązań globalnych dostawców, instalowanych w ich chmurach i aktualizowanych według ich cykli rozwojowych. Drugi to mieszana architektura, w której część kluczowych komponentów – np. krajowe hurtownie danych, modele AI do krytycznych zastosowań, zespoły MLOps w administracji – jest budowana i utrzymywana lokalnie, przy jednoczesnym wykorzystaniu globalnych rozwiązań tam, gdzie to bezpieczne.
Dyskusja o tym, kto kontroluje dane operacyjne i modele decyzyjne, nie dotyczy tylko wojska. Spór o to, czy systemy infotainment i asystenci głosowi w samochodach mają być zarządzani przez producenta auta, czy przez gigantów technologicznych, jest miniaturą tego samego problemu. Tekst o strategicznym przełomie Apple w wyścigu o inteligentny kokpit pokazuje, jak bardzo kontrola nad danymi z pojazdów i decyzjami asystentów AI staje się polem rywalizacji.
Analogicznie, jeśli suwerenne decyzje administracji i wojska opierają się na modelach rozwijanych w zagranicznych chmurach, granica między suwerennością a zależnością staje się płynna. Państwo może formalnie podejmować decyzje, ale w praktyce opiera się na rekomendacjach systemów, których nie jest w stanie w pełni zrozumieć ani zmodyfikować.
Jedną z odpowiedzi mogą być otwarte, interoperacyjne standardy w obronności i administracji. Tak jak w świecie modeli językowych pojawiają się otwarte alternatywy dla zamkniętych systemów – opisane w tekście o HuggingChat jako otwartym odpowiedniku ChatGPT – tak i państwa mogą rozważać rozwój częściowo otwartych komponentów w systemach krytycznych. Nie oznacza to publikowania kodu źródłowego systemów obronnych, lecz projektowanie architektury w sposób, który redukuje ryzyko lock-in i umożliwia niezależny audyt kluczowych elementów.
Scenariusze dla Polski i sojuszników: jak budować odpowiedzialne państwo obliczeniowe w erze militarnej AI
W perspektywie najbliższych lat można zarysować trzy realistyczne scenariusze rozwoju państwa obliczeniowego w obronności Polski i jej sojuszników.
Pierwszy to scenariusz „czarnej skrzynki”. Państwo głęboko integruje się z zamkniętymi, zagranicznymi platformami danych, przyjmując ich architekturę i modele jako de facto standard. Efektywność operacyjna może być wysoka – korzystamy z najnowszych rozwiązań, szybkiej modernizacji i wsparcia szerokiego ekosystemu. Ryzyka polityczne obejmują jednak silną zależność od dostawcy, ograniczoną możliwość audytu i brak realnej kontroli nad kierunkiem rozwoju systemu. Budżetowo scenariusz ten może wydawać się korzystny krótkoterminowo (mniej inwestycji w krajowe kompetencje), ale w długim okresie generuje rosnące koszty licencji i modernizacji. Wymagane kompetencje kadrowe koncentrują się na obsłudze i konfiguracji gotowych narzędzi, a nie na ich tworzeniu.
Drugi to scenariusz „suwerennego modułu”. Polska rozwija własne komponenty analityczne i systemy dowodzenia, które współpracują z sojuszniczą chmurą i platformami danych. Kluczowe dane operacyjne – np. z krajowych sensorów, systemów rozpoznania czy logistyki – są przetwarzane w krajowych centrach danych, a modele AI używane do wsparcia decyzji mogą być audytowane i modyfikowane lokalnie. Efektywność wojska zależy w tym scenariuszu od jakości integracji między modułami krajowymi a sojuszniczymi systemami. Ryzyka polityczne są niższe, ale rosną wymagania kompetencyjne: potrzebni są inżynierowie danych, specjaliści MLOps, architekci systemów i analitycy zdolni do wspólnego projektowania rozwiązań z wojskiem.
Trzeci to scenariusz „otwartej architektury”. Państwo inwestuje w otwarte standardy, interoperacyjne API i częściowo open-source’owe komponenty dla systemów krytycznych, dostosowane do wymogów bezpieczeństwa. Systemy obronne projektuje się modułowo, z wyraźnym rozdzieleniem warstw: infrastruktury, danych, modeli i aplikacji. Dzięki temu łatwiej jest wymieniać poszczególne elementy bez przebudowy całości. Efektywność wojska może być bardzo wysoka, jeśli uda się zbudować silny ekosystem partnerów – uczelni, firm technologicznych, instytutów badawczych – zdolnych do współtworzenia tej architektury. Ryzyka polityczne związane z zależnością od jednego dostawcy są minimalizowane, ale scenariusz wymaga znaczących inwestycji budżetowych i czasu oraz zdolności koordynacji z sojusznikami.
Niezależnie od wybranego scenariusza, można sformułować kilka rekomendacji wysokiego poziomu dla polskich decydentów i branży obronnej. Po pierwsze, kluczowe systemy AI w obronności powinny podlegać niezależnym audytom – zarówno technicznym, jak i prawnym oraz etycznym. Po drugie, warto wprowadzić ustawowe wymogi przejrzystości dla systemów wspierających decyzje o użyciu siły: minimalne standardy dokumentacji, możliwość weryfikacji danych treningowych i modeli przez uprawnione instytucje.
Po trzecie, konieczne są inwestycje w krajowe centra danych i kompetencje AI – nie tylko w wojsku, ale również w administracji cywilnej, aby budować spójny ekosystem państwa obliczeniowego. Po czwarte, do procesu tworzenia norm i regulacji dla militarnej AI należy włączać etyków, prawników, ekspertów od prawa międzynarodowego oraz przedstawicieli społeczeństwa obywatelskiego. Wewnętrzne głosy krytyczne z branży technologicznej, takie jak te opisane w artykule o etyce w firmach AI, są sygnałem, że sektor nie może sam dla siebie ustalać reguł gry bez zewnętrznego nadzoru.
Po piąte, polityka zakupowa w obronności powinna premiować rozwiązania, które zapewniają interoperacyjność, możliwość przenoszenia danych i ograniczają ryzyko technologicznego lock-in. Po szóste, potrzebne są inwestycje w edukację i rozwój kadr – od oficerów rozumiejących podstawy AI po specjalistów technicznych zdolnych do współpracy z przemysłem i środowiskiem naukowym. Wreszcie, po siódme, debata publiczna o obronności powinna uwzględniać nie tylko liczbę czołgów i wyrzutni, ale również to, jaki „mózg” będzie nimi zarządzał.
Państwo obliczeniowe nie jest już pytaniem „czy”, ale „jak”. Polska i jej sojusznicy funkcjonują dziś w logice danych operacyjnych, choć często nie nazywają tego wprost. Rzeczywiste wyzwanie polega na tym, czy uda się tę transformację przeprowadzić w sposób, który wzmacnia bezpieczeństwo i suwerenność, a nie tylko pogłębia zależność od nowych, cyfrowych centrów władzy. Od odpowiedzi na to pytanie zależeć będzie nie tylko kształt przyszłej obronności, ale i sposób funkcjonowania państwa jako całości.

