Dlaczego wszyscy nagle mówią o Anthropic Mythos i „zakamuflowanych lukach”
Kilka dni temu w polskiej bańce security wybuchł mały pożar zachwytu. Grzegorz „GPS” Świderski wrzucił wątek o nowym narzędziu Anthropic Mythos i nagle znajome timeline’y zapełniły się dyskusjami o „zakamuflowanych lukach”, „nowej erze audytów” i pytaniami w stylu: czy to zastąpi pentesterów?
Brzmi jak kolejny buzzword? Trochę tak. Ale po wgryzieniu się w temat widać, że Mythos to coś więcej niż kolejny skaner z ładnym dashboardem. To podejście, w którym zaawansowana AI nie tylko odpala gotowy zestaw testów, ale próbuje zrozumieć system i… rozmontować go w głowie. Z naciskiem na te problemy, które zwykle uciekają klasycznym narzędziom.
O jakie „zakamuflowane luki” chodzi? Nie o prostą wersję „tu nie ma łatki, więc jest CVE”. Bardziej o błędy w przepływach uprawnień, dziwne konfiguracje, nieoczywiste łańcuchy zdarzeń. Taki scenariusz: użytkownik z ograniczonym kontem, nietypowa integracja z zewnętrzną usługą, do tego zapomniana reguła na firewallu. Osobno wszystko wygląda niewinnie. Razem – przepis na wyciek danych.
W klasycznym świecie mamy dwa obozy. Testy ręczne: admin albo pentester loguje się, klika, miesza ustawieniami, próbuje wywołać błąd. I testy automatyczne: skanery, które lecą po znanych wzorcach, porównują wersje bibliotek z bazą podatności i wypluwają raport. Anthropic Mythos dorzuca trzecią opcję: testy, w których duże modele językowe wchodzą w rolę „myślącego” testera, ale o mocy liczenia i cierpliwości skanera.
Różnica jest dość prosta. Człowiek zwykle sprawdzi kilka, może kilkanaście ścieżek. Ma ograniczony czas i cierpliwość. AI może wielokrotnie przesuwać te same suwaki, wymyślać dziesiątki kombinacji, budować całe łańcuchy ataków, które składają się z drobnych, prawie niewidocznych odstępstw od polityki bezpieczeństwa. I nie męczy się przy dwudziestej iteracji.
To narzędzie jest ciekawe nie tylko dla adminów IT, security engineerów czy menedżerów ryzyka. Opowieść o Mythos jest zrozumiała nawet dla osoby spoza branży: mamy system, który uczy się, jak aplikacja zachowuje się w normalnych warunkach, a potem szuka miejsc, w których można to zachowanie skrzywić. Trochę jak bardzo dociekliwy tester, tylko zasilany GPU zamiast kawą.
Warto też widzieć Mythos w szerszym kontekście. AI przestaje być jedynie czymś, co trzeba chronić przed atakami, a zaczyna stawać się częścią infrastruktury bezpieczeństwa. Widać to już po tym, jak duże modele wchodzą do mainstreamu biznesu – opisałem to szerzej w tekście o partnerstwie Microsoft–OpenAI i przebudowie rynku pracy z AI. Anthropic Mythos jest kolejnym krokiem w tym samym kierunku: modele jako infrastruktura, nie gadżet.
Jak Anthropic Mythos ma działać w praktyce: od modeli zagrożeń do polowania na łańcuchy luk
Na poziomie koncepcyjnym Mythos zachowuje się jak bardzo bystry, ale bezlitośnie dokładny audytor. Najpierw „czyta” to, czym go nakarmisz: opisy systemu, fragmenty kodu, polityki bezpieczeństwa, konfiguracje chmurowe, zasady firewalli, logi z produkcji. Na tej podstawie buduje wewnętrzny obraz tego, jak system powinien działać i gdzie są potencjalne miejsca napięć.
Grzegorz Świderski zwrócił uwagę właśnie na tę zdolność Mythos do wyłapywania ukrytych luk, wynikających z połączenia kilku pozornie poprawnych elementów. Nie chodzi tylko o klasyczne błędy programistyczne, ale o sytuacje, w których „to, co na slajdach” nie zgadza się z tym, co faktycznie dzieje się w konfiguracji.
Wyobraźmy sobie admina, który pracuje z Mythos. Zamiast ręcznie przepisywać setki reguł i klikać kolejne ekrany, wrzuca do systemu opis architektury, politykę uprawnień, reguły firewalli, kawałek logów z typowego dnia. Mythos zaczyna układać te puzzle, a potem przechodzi w tryb „myśl jak atakujący”. Szuka ścieżek dostępu, o których nikt w firmie nie pomyślał. Sprawdza, czy da się przejść z konta serwisowego w systemie HR do danych finansowych, jeśli po drodze trafi na lekko zbyt szerokie uprawnienie w integracji z chmurą.
Najciekawsze robi się, gdy Mythos łączy wiedzę o różnych komponentach. Aplikacja webowa, sieć firmowa, zasoby w chmurze, VPN, integracje z zewnętrznymi usługami – wszystko trafia do jednego modelu. Zamiast listy pojedynczych bugów dostajemy pełne łańcuchy ataku: krok po kroku, od pierwszego wejścia do systemu aż po najbardziej wrażliwe dane.
To nie jest narzędzie, które „zastąpi ludzi”. Bardziej drugi mózg, który generuje listę hipotez: tu spróbuj, tu coś się nie klei, tu masz niekonsekwencję między polityką a praktyką. Człowiek nadal musi sprawdzić, które z tych scenariuszy są realne i jakie mają skutki. Natomiast to AI wykonuje tę najbardziej żmudną część: wymyślanie i łączenie scenariuszy.
Przyznam, że tu mam osobisty ból. Pamiętam dzień, gdy rozplątywałem skomplikowaną politykę IAM w jednej z chmur. Cztery poziomy grup, wyjątki dla zespołów projektowych, stare role „na wszelki wypadek”. Spędziłem pół dnia, rysując sobie diagramy w notatniku, żeby w końcu odkryć, że jedna mała rola nadawana „tylko na czas testów” w praktyce dawała dostęp do produkcji. Z Mythos taki przypadek to po prostu kolejny scenariusz do przeliczenia.
To podejście ma też drugie dno: rośnie znaczenie jakości tego, czym karmimy modele. Dobre prompty, porządne polityki, sensownie przygotowane dane treningowe – bez tego nawet najlepsza AI zrobi nam tylko piękny, ale nieprzydatny raport. Pisałem szerzej o optymalnym instruowaniu modeli w tekście WizardLM – Enhancing Large Language Models with AI-Evolved Instructions i przy Mythos te wnioski wracają z pełną mocą.
Nowa era audytów AI i bezpieczeństwa: co Mythos zmieni w pracy adminów, security engineerów i risk managerów
Co się stanie, gdy narzędzia pokroju Mythos staną się standardem w audytach bezpieczeństwa i audytach systemów AI? Po pierwsze, sama definicja audytu zacznie się zmieniać. To już nie tylko checklista, skan podatności, parę testów logowania i podpis audytora pod raportem.
W firmach coraz częściej chodzi o pytanie: jak system zachowa się w nietypowych sytuacjach. Co zrobi aplikacja HR, gdy ktoś wrzuci do niej dane z innego kraju, z innym systemem podatkowym. Jak zareaguje chatbot, gdy użytkownik zacznie go konsekwentnie naginać do łamania zasad. Co stanie się z danymi, jeśli w chmurze zmienimy region albo dostawcę tożsamości i ktoś zapomniał o jednej starej regule routingu.
Mythos może tu zagrać podwójną rolę. Z jednej strony zachowuje się jak automatyczny „red team” – generuje realistyczne ataki na infrastrukturę, szuka przejść między systemami, które „nie powinny” się widzieć. Z drugiej – staje się recenzentem dla samych systemów AI. Sprawdza, jak model reaguje na złośliwe prompty, jak próbuje obchodzić własne ograniczenia, co się dzieje, gdy połączymy go z zewnętrznymi API albo systemem plików.
To oznacza zmianę w codziennej pracy audytorów i zespołów GRC. W raportach zaczną się pojawiać nie tylko listy CVE, ale całe, spójne scenariusze ataku napisane przez AI: opis kroków, wymagane uprawnienia, możliwe skutki biznesowe. Trochę jak scenariusze filmowe, tylko mniej zabawne.
Przykłady? Mythos może przelecieć konfigurację chmury i wyłapać, że backupy baz danych lądują w zasobniku, do którego ma dostęp zbyt szeroka grupa serwisowa. Może przetestować polityki dostępu w systemach HR czy finansowych pod kątem tego, czy nowy stażysta z kontem „do podglądu” nie może przypadkiem wygenerować raportu z dokładnymi pensjami wszystkich menedżerów. Może symulować rozmowę z firmowym chatbotem i sprawdzać, czy po dziesięciu sprytnych pytaniach nie zacznie on wypluwać danych wrażliwych.
Tu naturalnie wraca wątek z artykułu o WizardLM – tam AI pomagała lepiej trenować inne modele, tutaj podobny pomysł trafia w audyty. AI zaczyna pomagać w weryfikacji innych systemów, nie tylko generowaniu nowej treści. To logiczna konsekwencja tego, co dzieje się w szerokim świecie technologii.
Dorzucę jeszcze jedną obserwację. Im więcej mamy integracji, tym bardziej rozlana robi się „powierzchnia ataku”. Konwersacyjna AI w samochodach, inteligentne kokpity, asystenci głosowi w każdym sprzęcie – opisywałem to w tekście o przyszłości kokpitu samochodowego i zmianach w CarPlay. Narzędzia typu Mythos mogą być jednym z niewielu sposobów, by ogarnąć ten rosnący bałagan zależności i sprawdzić, gdzie naprawdę może wślizgnąć się atakujący.
Raport z Mythos ma sporą szansę wywrócić dotychczasowe poczucie „u nas jest bezpiecznie” do góry nogami. I dobrze.
Jak przygotować firmę na Anthropic Mythos i bardziej bezlitosne testy bezpieczeństwa
Jeśli w firmie bezpieczeństwo przez lata było czymś w stylu „arkusz w Excelu raz na rok i pieczątka compliance”, to zderzenie z raportem z narzędzi w stylu Mythos może być bolesne. Warto więc trochę się przygotować, zanim takie rozwiązania na dobre zagoszczą w audytach.
Po pierwsze: dokumentacja architektury. W wielu organizacjach (widziałem to niestety zbyt często) diagram aktualnej infrastruktury istnieje tylko w głowie dwóch administratorów. Albo w prezentacji sprzed pięciu lat. Jeśli chcemy, żeby AI sensownie analizowała system, musimy mieć co jej podsunąć: aktualny opis usług, przepływów danych, integracji.
Po drugie: modele zagrożeń. Nie ma sensu udawać, że każda firma jest bankiem centralnym. Trzeba uczciwie nazwać to, czego naprawdę się boimy: wycieku danych klientów, zatrzymania produkcji, przejęcia kont kluczowych pracowników. AI może potem sprawdzać nasze założenia, ale punkt startu nadal musi przyjść od ludzi.
Po trzecie: logi i monitoring. Jeśli system loguje „błąd 500” i nic więcej, to nawet najbardziej wyrafinowana AI wiele z tego nie wyciągnie. W kilku projektach, w których brałem udział, samo uporządkowanie logowania i włączenie rozsądnego poziomu szczegółowości dało więcej niż kolejny skaner podatności. Mythos potrzebuje paliwa w postaci sensownych danych z pola walki, a nie tylko suchych konfiguracji.
Przy okazji dobrze jest spisać odpowiedzialności za ryzyko technologiczne. Kto podejmuje decyzje, gdy raport z Mythos pokaże nieprzyjemny scenariusz? Kto odpowiada za poprawki, kto za komunikację z klientami? Brak tych odpowiedzi widać zwykle dopiero w kryzysie.
Adminom i security engineerom polecam spojrzeć na testy z udziałem AI nie jak na jednorazowy pentest, tylko na stałego partnera. Coś, co regularnie odpala się na nowych konfiguracjach, przy większych zmianach w architekturze, przy wprowadzeniu nowej klasy integracji. Drugi mózg, który robi rundkę po systemie zawsze wtedy, gdy w kodzie, infrastrukturze albo w samej AI pojawia się coś większego.
Menedżerowie ryzyka będą musieli zrobić jeszcze jedną rzecz: wyjąć z budżetu technologię bezpieczeństwa AI do osobnej szuflady. Audyty AI, testy AI-assisted security, narzędzia pokroju Mythos – to nie jest darmowy dodatek do istniejących skanerów. To osobna kategoria kosztów, ale też osobna kategoria zysków: mniej poważnych incydentów, szybciej wykryte łańcuchy luk, mniej „niespodzianek” przy integracjach.
Widziałem już firmę, która na próbę wdrożyła prostego bota do sprawdzania konfiguracji chmury. Bez żadnej magii, raczej coś zbudowanego na szybko. W pierwszym tygodniu bot znalazł kilka „głupich, ale groźnych” błędów typu publiczny bucket z logami testowymi. Rzeczy, które ludzie po prostu przestali widzieć, bo przyzwyczaili się do czerwonych alertów w panelu.
W środowiskach, gdzie AI jest już mocno wszyta w produkt – nowoczesne kokpity samochodowe, asystenci głosowi, systemy, które gadają ze sobą po API – skala komplikacji rośnie z miesiąca na miesiąc. Bez wsparcia AI w audycie dochodzimy do ściany. A i tak po drodze trzeba ogarnąć prozę życia: kto pojedzie na kolejną konferencję security, ile to będzie kosztować, gdzie się zatrzymać. Tu akurat przy planowaniu wyjazdu czasem podglądam dane o kosztach życia i noclegach na HikersBay, bo łatwiej wtedy dogadać się o budżet na delegację.
Anthropic Mythos jest zapowiedzią zmiany paradygmatu. AI nie siedzi już tylko po stronie „systemów, które trzeba zabezpieczyć”. Zaczyna stawać po naszej stronie jako sojusznik w wyciąganiu na światło dzienne najbardziej wstydliwych, zakamuflowanych błędów w systemach. I trudno oprzeć się wrażeniu, że po kilku latach z takim narzędziem w tle będziemy patrzeć na dzisiejsze audyty z lekkim uśmiechem.

