Umowa OpenAI z Pentagonem: jak ChatGPT zmienia zasady gry w przyszłych konfliktach zbrojnych

Umowa OpenAI z Pentagonem: jak ChatGPT zmienia zasady gry w przyszłych konfliktach zbrojnych

Dlaczego porozumienie twórców ChatGPT z Pentagonem budzi tyle emocji

Porozumienie między twórcami ChatGPT a amerykańskim Departamentem Obrony to symboliczny moment, w którym generatywna sztuczna inteligencja oficjalnie wchodzi do wnętrza jednego z najbardziej wrażliwych systemów na świecie – zabezpieczonej sieci wojskowej USA. W przestrzeni publicznej szybko pojawiły się zarówno entuzjastyczne komentarze o „rewolucji w dowodzeniu”, jak i obawy przed „cyfrowym kompleksem wojskowo-przemysłowym” nowej generacji.

Dla osób nietechnicznych warto najpierw doprecyzować, czym w ogóle jest ChatGPT i podobne modele językowe (LLM – large language models). W największym uproszczeniu to programy uczone na ogromnych zbiorach tekstów, które potrafią generować spójne odpowiedzi w języku naturalnym, tworzyć podsumowania, analizy, scenariusze, a nawet fragmenty kodu. Nie „rozumieją” świata jak człowiek, ale są niezwykle skuteczne w przetwarzaniu tekstu, odnajdywaniu wzorców i syntetyzowaniu informacji.

Według informacji opublikowanych przez prezesa OpenAI w serwisie społecznościowym X, firma osiągnęła porozumienie w sprawie wdrożenia swoich modeli w zabezpieczonej sieci komputerowej Departamentu Obrony USA. Kluczowe jest tu słowo „zabezpieczonej” – chodzi o kontrolowane środowisko, odseparowane od otwartego internetu, w którym modele mają wspierać działanie struktur wojskowych, a nie prowadzić publicznych rozmów z użytkownikami.

Jednocześnie przedstawiciel OpenAI podkreślił dwie zasadnicze granice bezpieczeństwa. Po pierwsze, brak zgody na wykorzystywanie tych technologii do masowej inwigilacji obywateli kraju. Po drugie, wymóg, aby decyzja o użyciu siły – w tym w kontekście autonomicznej broni – zawsze pozostawała w gestii człowieka, a nie algorytmu. To mocne deklaracje w świecie, w którym rośnie presja na automatyzację decyzji militarnych i wywiadowczych.

W tle pozostaje szerszy problem: sztuczna inteligencja w wojsku („sztuczna inteligencja w wojsku”, „AI w armii USA”, „ChatGPT Pentagon”) może przynieść realne korzyści dla planowania operacyjnego, logistyki, cyberobrony czy analityki wywiadowczej. Może jednak również przyspieszyć technologiczny wyścig zbrojeń, stworzyć nowe narzędzia nadzoru nad społeczeństwami i wprowadzić dodatkowe ryzyka błędów modeli, które w kontekście militarnym mogą mieć dramatyczne skutki. To właśnie na styku tych potencjalnych zysków i zagrożeń koncentruje się debata o przyszłości wojen w erze generatywnej AI.

Jak doszło do współpracy OpenAI z Departamentem Obrony USA

OpenAI, które jeszcze kilka lat temu było postrzegane jako eksperymentalne laboratorium badawcze, jest dziś jednym z centralnych graczy globalnej rewolucji generatywnej AI. Udostępnienie ChatGPT w 2022 roku miało efekt domina: technologia szybko trafiła do biznesu, administracji publicznej, edukacji i mediów. Ścisła współpraca z Microsoftem – zarówno kapitałowa, jak i technologiczna – zapewniła OpenAI dostęp do ogromnej infrastruktury chmurowej oraz klientów klasy enterprise, w tym instytucji rządowych.

Z drugiej strony amerykański Departament Obrony jest od dekad jednym z największych i najbardziej wymagających odbiorców zaawansowanych technologii. To tam powstawały i dojrzewały projekty, które później trafiły do cywilnego internetu – od GPS po elementy infrastruktury sieciowej. W ostatnich latach Pentagon inwestował miliardy dolarów w rozwiązania chmurowe, analityczne i rozpoznawcze, współpracując z największymi firmami technologicznymi, takimi jak Google, Microsoft czy Amazon.

Na tym tle porozumienie z OpenAI nie jest całkowitym precedensem, ale stanowi jakościową zmianę. „Klasyczne IT” – systemy przechowywania danych, bazy, narzędzia analityczne – służą głównie do magazynowania, porządkowania i prezentowania informacji. Generatywna AI, a w szczególności zaawansowane modele językowe, idą krok dalej: interpretują dane, proponują scenariusze działania, generują rekomendacje i treści, które mogą być bezpośrednio wykorzystane w procesach decyzyjnych.

W wypowiedzi opublikowanej w serwisie X prezes OpenAI podkreślił, że wdrożenie modeli ma mieć miejsce w ściśle kontrolowanym środowisku – w odseparowanej, zabezpieczonej sieci wojskowej. Oznacza to, że systemy nie będą wprost połączone z otwartym internetem, a dostęp do nich będą miały wyłącznie uprawnione struktury. Mimo to pojawia się pytanie, jak w praktyce będzie wyglądał nadzór nad tym, w jaki sposób modele są używane, jakie dane do nich trafiają i jak są dalej przetwarzane.

Współpraca Pentagonu z sektorem big tech trwa od lat, jednak wejście generatywnej AI powoduje, że odpowiedzialność dostawców przestaje sprowadzać się do zapewnienia „bezpiecznej infrastruktury”. Kiedy system zaczyna aktywnie interpretować świat i formułować rekomendacje, granica między „neutralnym narzędziem” a „współdecydującym uczestnikiem procesu” ulega zatarciu. W kolejnych sekcjach pojawiają się pytania, do czego konkretnie mogą zostać wykorzystane modele językowe w wojsku i na ile deklaracje OpenAI o czerwonych liniach są możliwe do utrzymania.

Możliwe zastosowania modeli językowych w armii: od analizy danych po wsparcie dowódców

Najbardziej oczywistym polem zastosowania generatywnej AI w armii są procesy analityczne związane z wywiadem. Współczesne służby wywiadowcze toną w danych: od raportów terenowych, przez przechwycone komunikaty, po opisy danych satelitarnych i otwarte źródła w sieci. Modele językowe podobne do ChatGPT mogą w takim środowisku działać jak turbodoładowany asystent analityka, który w kilka sekund przegląda tysiące stron dokumentów, identyfikuje kluczowe wątki i proponuje syntetyczne podsumowania.

Analityka i fuzja danych wywiadowczych z udziałem LLM polega na tym, że model potrafi zestawić ze sobą informacje pochodzące z różnych źródeł, wykryć niespójności, zasugerować dodatkowe pytania badawcze czy warianty scenariuszy „co-jeśli”. Na przykład może przygotować dla decydentów krótkie streszczenie skomplikowanej sytuacji operacyjnej, uwzględniające dane z ostatnich dni, tygodni i miesięcy, bez konieczności angażowania wielu osób przez długie godziny.

Drugi obszar to wsparcie decyzyjne dla dowódców. Modele mogą generować warianty planów operacyjnych, analizować ryzyka, tworzyć tekstowe symulacje przebiegu działań na podstawie dostępnych danych historycznych i opisów sytuacji. W praktyce przypomina to rozbudowane „wojny gier tekstowych”, w których algorytm odgrywa rolę partnera do dyskusji, zwracającego uwagę na pominięte czynniki czy potencjalne konsekwencje. Kluczowe ograniczenie polega jednak na tym, że model nie posiada prawdziwego rozumienia rzeczywistości i może formułować rekomendacje, które brzmią przekonująco, ale są błędne lub nie uwzględniają czynników poza danymi wejściowymi.

Trzecim ważnym zastosowaniem są szkolenia i edukacja. Generatywna AI może budować interaktywne scenariusze treningowe dla żołnierzy i oficerów, symulować rozmowy z lokalną ludnością, sytuacje kryzysowe czy negocjacje z sojusznikami. Może również wspierać naukę języków obcych i zrozumienie lokalnych kultur, co w kontekście misji międzynarodowych bywa kluczowe. W odróżnieniu od tradycyjnych, statycznych kursów, systemy oparte na LLM potrafią dostosować tempo i poziom trudności do konkretnego użytkownika.

Kolejny obszar to zarządzanie logistyką i łańcuchami dostaw. Armia to gigantyczne przedsiębiorstwo operujące sprzętem, paliwem, częściami zamiennymi, personelem i kontraktami w wielu krajach jednocześnie. Tekstowi asystenci mogą pomagać w planowaniu transportu, optymalizacji zapasów, analizie ryzyk związanych z opóźnieniami czy awariami, a także w komunikacji między różnymi jednostkami organizacyjnymi. Choć wiele funkcji logistycznych opiera się na danych liczbowych, to większość decyzji i instrukcji ma postać tekstową – a tu modele językowe mają naturalną przewagę.

Wreszcie, coraz częściej mówi się o roli AI w cyberbezpieczeństwie i reagowaniu na incydenty. Modele mogą wspierać zespoły Security Operations Center (SOC) w interpretowaniu ogromnych wolumenów logów, korelowaniu symptomów potencjalnych ataków oraz przygotowywaniu raportów i procedur naprawczych. Tekstowe podsumowania skomplikowanych incydentów w języku zrozumiałym dla decydentów spoza świata IT mogą zwiększyć tempo i skuteczność reakcji na ataki cybernetyczne.

Przedstawiciele OpenAI zapewniają, że ich modele nie będą wykorzystywane do autonomicznego naprowadzania broni ani podejmowania decyzji o użyciu siły. Mają pełnić rolę „asystentów analitycznych”, pozostających w cieniu człowieka. Problem polega na tym, że w praktyce granica między wsparciem a faktycznym podejmowaniem decyzji bywa cienka: jeśli dowódcy w warunkach presji czasowej rutynowo akceptują rekomendacje systemu, to algorytm staje się de facto współdecydującym aktorem. To prowadzi do fundamentalnych pytań o autonomiczną broń i etykę pola walki.

Czerwone linie: zakaz masowej inwigilacji i autonomicznej broni – ilu z tych obietnic da się dotrzymać

Dwie zasady zadeklarowane publicznie przez kierownictwo OpenAI – brak zgody na masową inwigilację obywateli oraz wymóg ludzkiej kontroli nad użyciem siły – brzmią jak ważne zabezpieczenie. Aby ocenić ich realne znaczenie, trzeba jednak zadać kilka niewygodnych pytań technicznych i politycznych.

Masowa inwigilacja to nie tylko podsłuchy telefoniczne czy monitoring kamer w miastach. W epoce cyfrowej to przede wszystkim hurtowe przetwarzanie danych o całych populacjach: metadanych komunikacyjnych (kto z kim, kiedy i jak często się kontaktuje), aktywności w mediach społecznościowych, historii przeglądania internetu, danych lokalizacyjnych z telefonów, nagrań wideo z systemów miejskiego monitoringu. Sztuczna inteligencja radykalnie ułatwia analizę takich zbiorów: automatycznie klasyfikuje osoby, przypisuje im prawdopodobne poglądy polityczne, identyfikuje liderów opinii, przewiduje zachowania grup społecznych.

Na poziomie deklaracji można więc zakazać wykorzystywania konkretnego modelu do takich celów. Pytanie brzmi jednak, czy da się technicznie wymusić, aby model nie był w stanie profilować ludzi na podstawie ich aktywności, skoro do tego w dużej mierze został stworzony – do rozpoznawania wzorców w danych tekstowych. Nawet jeśli w umowie z jednym dostawcą zapisane są ograniczenia, ten sam partner wojskowy może równolegle rozwijać własne systemy, bazujące na podobnych technologiach, ale bez takich zobowiązań.

Doświadczenia państw, które już dziś intensywnie wykorzystują AI do nadzoru społecznego, pokazują, że technologia bardzo szybko przesuwa granice tego, co możliwe i opłacalne. W miastach na całym świecie rozwijane są systemy rozpoznawania twarzy, analizy zachowań tłumu czy monitorowania internetu pod kątem „niepożądanych treści”. Jeśli takie rozwiązania zostaną połączone z zaawansowanymi modelami językowymi, ryzyko nadużyć rośnie wykładniczo.

Jeszcze trudniejsze jest utrzymanie drugiej obietnicy – że decyzja o użyciu siły zawsze będzie należała do człowieka. W debacie o tzw. LAWS (Lethal Autonomous Weapons Systems) funkcjonują pojęcia „człowieka w pętli” (human in the loop) oraz „człowieka nad pętlą” (human on the loop). W pierwszym przypadku człowiek musi każdorazowo zatwierdzić użycie broni; w drugim – nadzoruje działanie systemu i ma możliwość interwencji, ale nie autoryzuje każdej pojedynczej decyzji algorytmu.

Presja operacyjna na polu walki – potrzeba reagowania w milisekundach, przewaga szybkości nad przeciwnikiem – sprzyja przechodzeniu od modelu „w pętli” do modelu „nad pętlą”, a następnie do niemal pełnej autonomii. Jeżeli systemy rozpoznawania celów, sterowania dronami czy obrony przeciwrakietowej będą coraz bardziej zintegrowane z algorytmami, rola człowieka może sprowadzać się do akceptacji z góry ustalonych reguł i obserwacji działania systemu. W takim scenariuszu formalnie „człowiek” ma ostatnie słowo, ale w praktyce ingeruje rzadko lub wcale.

Pojawia się więc zasadnicze pytanie: czy ograniczenia zapisane w kontraktach z jedną firmą wystarczą, jeśli inni dostawcy – prywatni i państwowi – będą gotowi pójść dalej? Nawet najbardziej odpowiedzialna polityka jednego producenta nie zatrzyma globalnego wyścigu technologicznego, jeżeli nie będą jej towarzyszyły szersze regulacje i porozumienia międzynarodowe.

Ryzyka dla prywatności, bezpieczeństwa i stabilności geopolitycznej

Wdrożenie generatywnej AI do systemów wojskowych oznacza nie tylko nowe możliwości operacyjne, ale także nową klasę ryzyk – od naruszeń prywatności, przez podatności techniczne, po skutki geopolityczne.

W wymiarze prywatności i ochrony danych osobowych kluczowe jest to, jakie informacje będą przepływać przez modele używane przez wojsko. Mogą to być nie tylko dane dotyczące żołnierzy, ale również obywateli innych państw, opis ich zachowań w sieci, treści komunikacji przechwyconej w ramach działań wywiadowczych, raporty z obserwacji terenowych. W połączeniu z możliwościami długoterminowego przechowywania takich danych w chmurze powstaje pokusa budowy ogromnych, historycznych archiwów zachowań społeczeństw – które w przyszłości mogą być wykorzystane w zupełnie innym kontekście niż pierwotny.

Systemy wojskowe są przy tym atrakcyjnym celem ataków: wyciek danych z takiego środowiska oznacza nie tylko utratę tajemnic operacyjnych, ale również ujawnienie wrażliwych informacji o milionach osób. Dodatkowo globalne skalowanie AI wiąże się z rosnącym zużyciem energii i wody, co ma znaczenie zarówno ekonomiczne, jak i środowiskowe. Szersze tło tego problemu opisujemy szczegółowo w tekście „Czy AI naprawdę pożera prąd i wodę? Rzeczywisty ślad CO₂ ChatGPT i innych modeli”, pokazując, że ślad środowiskowy modeli wykorzystywanych także w kontekście wojskowym staje się nowym czynnikiem w analizie bezpieczeństwa.

Druga grupa zagrożeń dotyczy bezpieczeństwa technicznego samych modeli. LLM znane są z podatności na halucynacje – generowanie odpowiedzi, które brzmią wiarygodnie, ale są fałszywe. W kontekście wojskowym błędne podsumowanie sytuacji, oparte na źle zinterpretowanych danych, może prowadzić do błędnych ocen intencji przeciwnika czy niewłaściwego rozmieszczenia sił. Modele są też wrażliwe na ataki typu prompt injection, czyli wstrzykiwanie do danych wejściowych treści, które mają skłonić system do zmiany zachowania lub ujawnienia poufnych informacji.

Niedawne eksperymenty badaczy, pokazujące jak prostymi trikami można istotnie zmieniać odpowiedzi systemów takich jak ChatGPT czy Gemini, dobrze ilustrują skalę problemu. W naszym portalu opisaliśmy to szerzej w artykule „Prosty trik, który zmienia odpowiedzi ChatGPT i Gemini: czego naprawdę uczy nas głośny eksperyment”. Jeżeli podobne podatności przeniesiemy do środowiska wojskowego, wrogie podmioty mogą próbować manipulować zachowaniem systemu, podsuwając mu specjalnie przygotowane dane, dokumenty czy komunikaty. Ryzyko nadużyć istnieje nie tylko po stronie zewnętrznych atakujących, ale również wewnętrznych użytkowników, którzy mogą próbować obchodzić polityki bezpieczeństwa za pomocą „sprytnych” poleceń.

Trzeci wymiar to stabilność geopolityczna i wyścig zbrojeń. Jeżeli armia USA zacznie na szeroką skalę wykorzystywać AI w procesach operacyjnych, inne mocarstwa poczują się zmuszone do przyspieszenia własnych programów, aby nie zostać w tyle. Powstaje efekt „drugiego uderzenia technologicznego”: każda innowacja jednej strony prowokuje reakcję po drugiej stronie, często bez pełnego zrozumienia jej konsekwencji. W takim środowisku rośnie ryzyko eskalacji na skutek błędnej interpretacji danych – jeżeli systemy AI po jednej stronie odczytają działania przeciwnika jako agresywne, mogą zasugerować ostrzejszą odpowiedź, co z kolei wzmocni poczucie zagrożenia po drugiej stronie.

Opisując te scenariusze, nie chodzi o szerzenie katastroficznych wizji, ale o trzeźwe prześledzenie łańcucha przyczynowo-skutkowego. Większe wykorzystanie AI w wojsku oznacza większe tempo wymiany informacji i decyzji. Przy braku zaufania między państwami oraz ograniczonej przejrzystości działania algorytmów łatwo o spiralę nieufności, w której każde działanie profilaktyczne interpretowane jest jako ruch ofensywny.

Kto kontroluje sztuczną inteligencję w wojsku: państwa, korporacje czy algorytmy

Porozumienie między twórcami ChatGPT a Departamentem Obrony USA to tylko jeden z wielu przykładów zacieśniania relacji między sektorem big tech a aparatem wojskowo-wywiadowczym. W tle toczy się zasadniczy spór o to, kto realnie kontroluje rozwój sztucznej inteligencji – rządy, prywatne korporacje czy może same systemy algorytmiczne, których dynamika często wymyka się tradycyjnym procedurom nadzoru.

Trening modeli językowych wymaga ogromnych zbiorów danych tekstowych, mocy obliczeniowej i wyspecjalizowanych zespołów badawczych. Decyzje o tym, jakie dane są wykorzystywane, jakie filtry etyczne stosowane i jakie „wartości domyślne” model ma odzwierciedlać, zapadają głównie w prywatnych firmach. Demokratyczna kontrola nad tym procesem jest pośrednia i ograniczona – obywatele widzą finalny produkt, ale nie mają wglądu w pełnię danych treningowych czy wewnętrznych debat projektowych.

Wejście na rynek kontraktów wojskowych dodatkowo komplikuje obraz. Kontrakty tego typu to ogromne kwoty, które mogą istotnie zmieniać sytuację finansową firm dostarczających AI. W analizie „Microsoft, OpenAI i koszt sztucznej inteligencji: co naprawdę dzieje się w finansach gigantów” pokazujemy, jak znaczące nakłady inwestycyjne i koszty utrzymania infrastruktury popychają firmy w kierunku poszukiwania stabilnych, wieloletnich źródeł przychodu. Długoterminowe umowy z rządami i wojskiem idealnie wpisują się w tę strategię.

Im większa staje się zależność budżetowa firm od kontraktów państwowych, tym trudniej jest im realnie sprzeciwiać się kontrowersyjnym zastosowaniom technologii. Nawet jeśli zespoły etyczne wewnątrz organizacji podnoszą zastrzeżenia, presja akcjonariuszy, konkurencji i samych instytucji państwowych może skłaniać do „elastycznej interpretacji” wcześniej deklarowanych zasad bezpieczeństwa. Ryzyko konfliktu interesów między wartościami deklarowanymi publicznie a twardą logiką biznesu jest w tym sektorze wyjątkowo wysokie.

Coraz częściej mówi się także o zjawisku „algorytmicznej inercji”. Gdy raz powstanie duża infrastruktura AI – serwerownie, modele, pipeline’y danych, procedury operacyjne – bardzo trudno jest po prostu ją wyłączyć, nawet jeśli zmieni się nastawienie polityczne. Systemy zaczynają żyć własnym rytmem, integrować się z kolejnymi procesami, uzasadniać dalsze inwestycje. Decydent, który chciałby „cofnąć” niektóre wdrożenia, musi zmierzyć się nie tylko z oporem korporacji, ale także z kosztami i ryzykiem dezorganizacji funkcjonujących struktur wojskowych.

W tym kontekście pytania o demokratyczną kontrolę nad AI w wojsku stają się szczególnie palące. Kto decyduje o tym, jakie dane trafiają do systemów? Jakie ciało nadzoruje zgodność zastosowań z prawem międzynarodowym i konstytucją? Jakie narzędzia mają parlamenty, sądy i opinia publiczna, aby realnie wpływać na to, w jaki sposób algorytmy są wykorzystywane w imieniu obywateli?

Co dalej z AI w armii USA i jak powinni reagować obywatele oraz regulatorzy

Wejście generatywnej sztucznej inteligencji do zabezpieczonej sieci Pentagonu jest sygnałem, że AI przestaje być „dodatkiem” do działań militarnych, a staje się jednym z centralnych elementów infrastruktury bezpieczeństwa narodowego. Z jednej strony potencjał modeli językowych – od analizy danych wywiadowczych, przez wsparcie decyzyjne, po szkolenia – jest zbyt duży, by został zignorowany. Z drugiej strony deklarowane ograniczenia zastosowań, takie jak zakaz masowej inwigilacji czy brak zgody na autonomiczną broń, są trudne do zweryfikowania i egzekwowania w praktyce.

W obliczu tych sprzeczności kluczowe jest wypracowanie minimalnych standardów przejrzystości i audytu stosowania AI w strukturach wojskowych. Mogłyby one obejmować m.in. obowiązkowe, niezależne testy systemów przed wdrożeniem operacyjnym, okresowe raporty dla parlamentów o zakresie i sposobach wykorzystania AI, a także mechanizmy skarg i sygnalizowania nadużyć dostępne dla personelu wewnętrznego. Istotne jest również, aby regulacje nie ograniczały się do jednego państwa, lecz były koordynowane na poziomie sojuszy i organizacji międzynarodowych.

Coraz częściej pojawia się postulat międzynarodowych traktatów dotyczących użycia AI w wojsku, analogicznych do konwencji o zakazie broni chemicznej czy biologicznej. Mogłyby one wprost zakazywać pewnych klas systemów – na przykład w pełni autonomicznej broni ofensywnej – oraz ustanawiać standardy przejrzystości w zakresie nadzoru nad algorytmami podejmującymi decyzje o użyciu siły. Oczywiście wdrożenie takich porozumień w praktyce, w świecie rywalizujących mocarstw, jest ogromnym wyzwaniem, ale brak jakichkolwiek reguł jest scenariuszem znacznie bardziej ryzykownym.

Nie mniej ważna jest rola obywateli, organizacji pozarządowych i środowisk naukowych. To one często jako pierwsze nagłaśniają nadużycia, analizują dokumenty przetargowe, prowadzą badania nad skutkami wdrożeń AI w sektorze publicznym. Bez presji społecznej i medialnej łatwo o sytuację, w której kluczowe decyzje dotyczące kształtu przyszłych konfliktów zbrojnych zapadają w zaciszu sal konferencyjnych między przedstawicielami rządów a zarządami największych korporacji technologicznych, z minimalnym udziałem opinii publicznej.

Debata o „AI w armii USA” i innych państwach nie powinna sprowadzać się do wyboru między technologicznym entuzjazmem a katastroficznym fatalizmem. Z jednej strony naiwne przekonanie, że „AI nas uratuje”, ignoruje realne ryzyka błędów, nadużyć i wyścigu zbrojeń. Z drugiej – przekonanie, że „to koniec prywatności i pokoju”, może paraliżować dyskusję o konkretnych mechanizmach kontroli i odpowiedzialności. Potrzebne jest krytyczne, ale rzeczowe podejście, oparte na faktach i świadomym ważeniu korzyści z kosztami.

To, jak dziś zostaną ułożone relacje między firmami budującymi systemy takie jak ChatGPT a instytucjami odpowiedzialnymi za bezpieczeństwo narodowe, będzie miało wpływ na standardy prywatności, wolności i bezpieczeństwa na całym świecie przez następne dekady. Jeżeli społeczeństwa pogodzą się z modelem, w którym decyzje o życiu i śmierci, pokoju i wojnie są coraz mocniej uzależnione od algorytmów kontrolowanych przez wąską grupę podmiotów, bardzo trudno będzie ten stan później odwrócić. Jeżeli jednak już teraz uda się wypracować reguły przejrzystości, odpowiedzialności i międzynarodowej współpracy, generatywna AI ma szansę stać się narzędziem, które wzmacnia bezpieczeństwo, zamiast je podkopywać.


Leave a Reply

Your email address will not be published. Required fields are marked *