Gdy model „zbyt groźny na premierę” wycieka bokiem: o co chodzi w sprawie Mythos
Wyobraź sobie konferencję prasową dużej firmy AI. Kamerzyści, slajdy, wielkie słowa o „przełomie w cyberbezpieczeństwie”. Po czym pada zdanie: „Ten model jest tak potężny, że nie możemy go udostępnić publicznie”. Kurtyna. Tyle że chwilę później do sieci trafiają dokumenty o tym systemie, a w końcu także sam model w rękach ludzi, którzy nie mieli nigdy go zobaczyć.
To w skrócie historia Mythos – najbardziej zaawansowanego modelu Anthropic, zaprojektowanego do wyszukiwania podatności w oprogramowaniu szybciej niż całe zespoły ekspertów. Według osób zaznajomionych ze sprawą Mythos miał radzić sobie ze znajdowaniem i wykorzystywaniem luk w większości popularnych systemów operacyjnych i przeglądarek. Innymi słowy: superspec od hakowania, tyle że w wersji cyfrowej.
Najpierw doszło do nieplanowanego wycieku dokumentów, który w ogóle ujawnił skalę możliwości Mythos. Potem Anthropic zdecydował się na mocno ograniczoną dystrybucję: dostęp dostały wybrane organizacje, głównie po to, by testować swoje systemy obronne. Na końcu pojawiły się doniesienia, że do modelu dorwała się wąska grupa nieautoryzowanych użytkowników – mimo wszystkich deklaracji o ostrożności i kontrolowanym dostępie.
Jeśli od AI oczekujesz raczej podpowiedzi przepisów niż scenariuszy włamań do banku, brzmi to jak fabuła serialu. Tyle że tu stawką są realne systemy: infrastruktura krytyczna, sieci energetyczne, finanse. Narzędzie stworzone po to, by łatać dziury, może w złych rękach stać się instrukcją obsługi ataku krok po kroku.
Skutki uderzyły nie tylko w wizerunek Anthropic. Zachwiało się zaufanie do idei „kontrolowanego dostępu” i do opowieści firm, że mają wszystko pod kontrolą. Przy okazji rykoszet poleciał w stronę rządów, które do tej pory chętnie wpuszczały prywatne laboratoria AI do gry i odsuwały od siebie odpowiedzialność za ryzyko. Na tym właśnie tle pojawia się Donald Trump ze swoim pomysłem rządowego przeglądu „wysokiego ryzyka” modeli AI przed ich premierą – czegoś w rodzaju państwowego crash testu dla sztucznej inteligencji.
Brzmi jak miks thrillera technologicznego z posiedzeniem komisji sejmowej, ale dokładnie tam dziś ląduje debata o AI.
Co właściwie chce zrobić Trump z modelami AI i dlaczego właśnie teraz
Plan jest zaskakująco prosty w założeniu. Biały Dom rozważa wprowadzenie mechanizmu, w którym najbardziej zaawansowane modele sztucznej inteligencji trafiałyby najpierw do państwowych testerów, a dopiero potem do szerokiej publiczności. Coś jak badanie techniczne samochodu przed wyjazdem na drogę – z tą różnicą, że zamiast hamulców sprawdza się zdolność do hakowania.
Nie chodzi jednak o ręczne sterowanie każdym chatbotem na rynku ani o cenzurowanie wszystkich odpowiedzi. Pomysł uderza w wąską grupę systemów uznanych za „wysokiego ryzyka” dla bezpieczeństwa narodowego albo cyberbezpieczeństwa. To właśnie Mythos – model, który według doniesień potrafił automatyzować złożone cyberataki – stał się iskrą, która zmieniła kurs administracji Trumpa na bardziej interwencyjny.
Według źródeł zbliżonych do rozmów Biały Dom analizuje scenariusz powołania specjalnej grupy roboczej lub nowej agencji, która dostawałaby wcześniejszy dostęp do najbardziej zaawansowanych modeli. Jej zadaniem byłoby sprawdzanie, czy da się z tych systemów wycisnąć konkretne scenariusze nadużyć: od automatyzacji włamań do sieci korporacyjnych po wsparcie w przygotowaniu ataku na infrastrukturę energetyczną. To nie brzmi jak typowe „czy model obraża użytkowników”, tylko raczej „czy pomoże obejść zabezpieczenia elektrowni”.
Polityczny zwrot jest wyraźny. W pierwszych miesiącach drugiej kadencji Trump konsekwentnie podkreślał, że AI trzeba „odblokować”, a nie krępować, licząc na przewagę konkurencyjną dla amerykańskich firm. Dopiero spór o zakres dostępu do Mythos dla wojska i sprzeciw Białego Domu wobec planów szerszego udostępnienia modelu doprowadziły do refleksji, że wolny rynek sam z siebie może nie ogarnąć ryzyk.
W tle widać też szerszy trend. W Wielkiej Brytanii bezpieczeństwem najpotężniejszych modeli zajmuje się AI Safety Institute, który zdążył już przebadać modele kilku wielkich laboratoriów, w tym OpenAI i Anthropic. Wersja amerykańska nie jest więc nagłym kosmicznym pomysłem, raczej lokalną wariacją na temat podejścia, które powoli rozlewa się po Zachodzie.
Ambicja planu rodzi jednak całą listę pytań prawnych. Czy administracja ma jasną podstawę prawną, by zażądać dostępu do modelu jeszcze przed premierą? Jak pogodzić testy z ochroną tajemnicy przedsiębiorstwa? Co jeśli państwowi testerzy coś przeoczą – czy odpowiedzialność rozmyje się między regulatora i firmę? Te wątki dopiero się wykluwają i szybko nie znikną.
Nowa kontrola modeli AI a biznes: więcej bezpieczeństwa czy hamulec dla innowacji
Spróbuj spojrzeć na to oczami zespołu R&D. Dwa lata pracy nad nowym modelem, budżet spalony na GPU, kilka nieprzespanych nocy przed kolejnymi iteracjami. W końcu jest – działa, inwestorzy czekają na premierę, marketing ma już gotowe kampanie. I nagle pojawia się informacja, że przed wyjściem na rynek trzeba przejść obowiązkowy przegląd rządowy, który może dorzucić kilka miesięcy poślizgu.
Tak wygląda „tarcie regulacyjne” w praktyce. Firmy muszą wpasować w swoje roadmapy czas na dostarczenie dokumentacji technicznej, opisów ryzyk, danych o procesie trenowania, scenariuszy nadużyć. W przypadku modeli z najwyższej półki do gry wejdą też szczegółowe testy pod kątem cyberataków. To kosztuje pieniądze, ale też uwagę menedżerów, którzy zamiast planować kolejne funkcje będą negocjować zakres informacji ujawnianych urzędnikom.
W tle pojawia się twardy konflikt z tajemnicą przedsiębiorstwa. W erze „wojny modeli” nikt rozsądny nie chce zbyt szeroko odsłaniać tego, co dzieje się pod maską jego systemów. Opisywałem ten wyścig reputacji i możliwości w tekście o rywalizacji OpenAI i Anthropic. Dodanie do równania państwowego przeglądu oznacza, że firmy będą musiały zaufać, iż przekazane informacje nie wyciekną i nie trafią do konkurentów – co w świecie polityki i lobbingu nie jest szczególnie komfortową myślą.
Jest też druga strona medalu. W realiach po aferze Mythos „pieczęć bezpieczeństwa” od państwa może stać się kartą przetargową w rozmowach z bankami, operatorami sieci czy administracją publiczną. Jeżeli model przejdzie państwowe testy i dostanie formalne „OK”, handlowcy będą mogli wprost pokazywać to klientom z wrażliwych sektorów. Kto kupuje system do obsługi przelewów albo zarządzania siecią energetyczną, będzie pytał nie tylko o szybkość i cenę, ale też o to, czy ktoś niezależny sprawdził, czy ten model nie da się zbyt łatwo przekierować w ciemną stronę.
Dla prawników zacznie się nowy spór: czy pozytywny wynik przeglądu powinien ograniczać późniejsze roszczenia wobec twórców modelu, gdy coś pójdzie źle? Część firm będzie chciała traktować państwowy test jako tarczę: „Przeszliśmy wszystko, co nam kazali, co jeszcze mogliśmy zrobić?”. Regulatorzy z kolei mogą argumentować, że przegląd to tylko minimum, a odpowiedzialność biznesu wcale nie maleje.
Na poziomie codziennej pracy zespołów produktowych wygląda to dużo mniej abstrakcyjnie. Pojawiają się rozmowy w stylu: dział AI prezentuje nowy model, a prawnicy zadają trzy proste pytania – „Czy wasz system jest w stanie pomóc zhakować bank? Elektrownię? Wybory?”. Jeśli odpowiedź choć trochę zbliża się do „teoretycznie mógłby”, projekt może trafić na dłuższy postój.
W tle są jeszcze pieniądze. Firmy już teraz próbują łatać rosnące koszty trenowania i utrzymania modeli, testując różne źródła przychodu: od płatnych subskrypcji po reklamy w interfejsach. Analizowałem to szerzej w tekście o reklamach w ChatGPT. Rządowy przegląd przed premierą dokładana kolejny stały koszt compliance do i tak już skomplikowanej układanki.
Cyberbezpieczeństwo, prawo i co dalej z regulacją AI po Mythos
Najprostsze pytanie, jakie pojawia się po całej historii, brzmi: czy da się w ogóle „przetestować” model AI na tyle dobrze, żeby uspokoić obawy przed kolejnym wyciekiem w stylu Mythos? Ten system od początku projektowano pod kątem wyszukiwania podatności. W praktyce sam stał się elementem łańcucha ryzyka – od wycieku dokumentów, przez nieautoryzowany dostęp, aż po polityczną przepychankę o to, kto ma prawo z niego korzystać.
To właśnie na styku cyberbezpieczeństwa, prawa i polityki będzie się rozgrywać kolejny etap regulacji. Jeśli powstanie rządowy przegląd modeli, prawnicy i urzędnicy będą musieli zacząć od podstaw: zdefiniować, co to znaczy „model wysokiego ryzyka”, jakie kryteria techniczne trzeba spełnić, kiedy państwo może zażądać zmian w systemie albo zablokować premierę. Szybko pojawią się pytania o kolizję z konstytucyjnymi wolnościami, ochroną danych i zasadą proporcjonalności ograniczeń – szczególnie gdy w grę wchodzi ingerencja w działalność prywatnych firm.
Na stole leży też temat odpowiedzialności. Jeśli państwo przetestuje model, da zielone światło, a potem dojdzie do poważnego incydentu – powiedzmy, AI pomaga włamać się do systemu szpitala – to czy część winy nie przechodzi na regulatora? Można sobie wyobrazić różne konstrukcje: solidarną odpowiedzialność twórcy i operatora modelu, regres wobec producenta po przegranym procesie, albo nowe standardy „należytej staranności” przy wdrażaniu AI w krytycznych systemach.
Ważnym graczem będzie też sektor naukowy. Liczba publikacji o generatywnej AI rośnie z roku na rok, a uczelnie i konsorcja badawcze budują własne, coraz mocniejsze modele. W tekście o AI w nauce pisałem o napięciu między otwartością badań a bezpieczeństwem. Jeśli przegląd przed premierą obejmie także modele akademickie, uniwersytety testujące systemy pod kątem cyberataków mogą nagle znaleźć się w tym samym kubełku co prywatne laboratoria – z podobnymi obowiązkami, ale bez komercyjnych budżetów.
Do tego dochodzi perspektywa międzynarodowa. Globalne firmy będą musiały lawirować między różnymi reżimami prawnymi: tu obowiązkowy przegląd, gdzie indziej wręcz zachęta do pełnej otwartości kodu. Trochę jak podróżnicy, którzy przed wyjazdem sprawdzają w serwisach pokroju HikersBay koszty życia, pogodę czy bezpieczeństwo kierunku, tak prawnicy i osoby odpowiedzialne za compliance zaczynają układać sobie w głowie „mapę ryzyka regulacyjnego” dla AI w zależności od kraju.
Po aferze Mythos trudno już poważnie twierdzić, że rynek sam z siebie okiełzna najbardziej niebezpieczne modele. Z drugiej strony państwowy przegląd przed premierą jest narzędziem grubym, kosztownym i łatwym do upolitycznienia. Kolejne miesiące przyniosą już nie tylko nagłówki o „bezpiecznej AI”, ale pierwsze konkrety: projekty ustaw, rozporządzeń, standardów testowania. I dopiero wtedy okaże się, czy Mythos był tylko ostrzeżeniem, czy początkiem całkiem nowej epoki w regulacji sztucznej inteligencji.

