Nowy agent AI w bankowości: o co chodzi w partnerstwie Anthropic i FIS
Na serwisach finansowych i w agregatach newsów pojawiła się niedawno krótka, ale znacząca informacja: Anthropic i FIS ogłosiły współpracę przy budowie agenta AI do walki z przestępczością finansową i oszustwami bankowymi. Brzmi jak komunikat z działu PR, ale konsekwencje mogą być bardzo konkretne.
Jeśli nie śledzisz na co dzień rynku technologii, dwa nazwiska warto rozszyfrować. Anthropic to twórcy zaawansowanych modeli sztucznej inteligencji, konkurenci innych dużych graczy w świecie generatywnego AI. FIS z kolei to gigant od technologii dla banków i instytucji finansowych, dostarczający systemy, na których opiera się codzienna bankowość, płatności i rozliczenia.
Przedstawiciele obu firm mówią, że celem wspólnego projektu jest wzmocnienie bezpieczeństwa systemu finansowego i usprawnienie wykrywania nadużyć. Agent AI ma pomóc bankom szybciej wyłapywać podejrzane schematy, ograniczyć skalę oszustw i skrócić czas reakcji, gdy coś naprawdę złego dzieje się na rachunku klienta.
Co to w ogóle znaczy „agent AI” w tym kontekście? To nie jest magiczna, samodzielna superinteligencja. Chodzi o system, który analizuje transakcje, wzorce zachowań klientów i sygnały ostrzegawcze z wielu źródeł, a potem podpowiada ludziom – analitykom, osobom z działów AML i compliance – gdzie zajrzeć w pierwszej kolejności i jaką decyzję rozważyć.
Moment na taką współpracę nie jest przypadkowy. Rośnie liczba oszustw online, regulacje dotyczące przeciwdziałania praniu pieniędzy (AML) są coraz bardziej złożone, a nadzory w UE i poza nią dokręcają śrubę. Banki mają więc prosty dylemat: albo zatrudniają coraz więcej ludzi do ręcznego klepania alertów, albo próbują zbudować mądrzejsze systemy.
Można też dodać mało wyszukany, ale prawdziwy komentarz: instytucje finansowe chcą, żeby AI grała po ich stronie, a nie po stronie przestępców. Wyścig zbrojeń trwa, tylko zamiast sejfów i krat mamy modele językowe i analitykę danych.
W kolejnych częściach zobaczymy, jak taki agent może faktycznie działać, z jakich danych korzysta i co oznacza dla pracy ludzi w bankach oraz dla zwykłego klienta, który po prostu chce spokojnie zalogować się do aplikacji mobilnej.
Jak działa agent AI do zwalczania przestępczości finansowej w praktyce
Wyobraź sobie analityka AML, który rano otwiera system i widzi dziesiątki, czasem setki nowych alertów. Do tego raporty do nadzoru, maile od działu compliance, rozmowy z biznesem. Pamiętam projekt, w którym analitycy spędzali pół dnia na kopiowaniu danych z Excela do systemu transakcyjnego, bo integracja „jeszcze była na roadmapie”. Nikt za tym nie tęskni.
W tym świecie pojawia się agent AI. Zamiast zaczynać od ręcznego przeklikiwania każdego rekordu, system przeszukuje dane transakcyjne, informacje o klientach, logowania do bankowości, charakterystykę urządzeń, z których korzysta użytkownik, geolokalizację sesji oraz dane z list sankcyjnych i PEP. Dla przykładu: zauważa nagły skok kwot przelewów na nowe rachunki w kraju o podwyższonym ryzyku, nocne logowania z innego kontynentu albo serię mikrotransakcji na koncie firmowym, które podejrzanie przypominają rozbijanie większej kwoty na mniejsze części.
Kluczowa różnica między takim agentem a klasycznym systemem regułowym jest prosta. Tradycyjnie banki opierały się na zestawie sztywnych zasad – powyżej danego progu kwotowego generuj alert, przelew na czarną listę blokuj, transakcja z określonego kraju wymagaj dodatkowej weryfikacji. Agent AI idzie dalej: sam szuka nienaturalnych wzorców, porównuje danego klienta z innymi o podobnym profilu, proponuje priorytetyzację alertów. Mówiąc wprost – podsuwa ludziom te sprawy, które naprawdę śmierdzą, i odsuwa na bok to, co z dużym prawdopodobieństwem jest fałszywym alarmem.
W komunikatach wokół współpracy Anthropic i FIS pojawia się jeszcze jeden ważny motyw: narzędzie ma być konwersacyjne. Analityk może zadać pytanie zwykłym językiem, na przykład: „pokaż nowych klientów, którzy w pierwszym tygodniu po otwarciu konta wykonali wysoki przelew do kraju wysokiego ryzyka”, a agent AI przygotuje listę przypadków, wstępną analizę i szkic raportu. Zamiast budować raport godzinę, analityk ma w kilka sekund roboczy punkt startu.
Podobne podejście agentowe widać już w innych obszarach bezpieczeństwa. W tekście EVMbench od OpenAI: nowy benchmark dla agentów AI w bezpieczeństwie smart kontraktów opisywałem, jak agenci AI uczą się aktywnie wyszukiwać luki w smart kontraktach zamiast czekać, aż ktoś im pokaże gotowy błąd. Inny świat, inne protokoły, ale idea podobna: system ma szukać problemów samodzielnie, a nie tylko reagować na proste reguły.
Przy całym tym zachwycie trzeba jednak postawić twarde granice. Agent AI nie zastąpi zespołów AML ani compliance. Nie zadzwoni do klienta, nie zinterpretuje kontekstu biznesowego firmy rodzinnej z małego miasta i nie weźmie na siebie odpowiedzialności przed regulatorem. Ma odciążyć ludzi z nudnego „kliknij, skopiuj, wklej”, żeby mogli skupić się na trudnych przypadkach i decyzjach, które naprawdę mają ciężar.
I jest jeszcze jedno: cała magia kończy się tam, gdzie brakuje dobrych danych i sensownej integracji systemów. Agent nie złoży w całość czegoś, czego bank sam nie potrafi o sobie opowiedzieć.
Jakie dane analizuje agent AI i co to oznacza dla prywatności klientów
Agent AI nie czyta w myślach, ale czyta w danych – i to całkiem sporo. Z perspektywy klienta część tej historii wydaje się oczywista, a część bywa zaskakująca.
Na pierwszym planie jest historia transakcji: przelewy wychodzące i przychodzące, płatności kartą, wypłaty z bankomatów. Do tego dochodzą odbiorcy przelewów, rodzaje produktów, z których korzysta klient – karty, kredyty, lokaty, rachunki walutowe. Agent obserwuje też dane logowania: urządzenia, adresy IP, przybliżoną lokalizację, z której łączysz się z bankiem, godziny aktywności. Z systemów AML trafią do niego informacje o wcześniejszych alertach, powiązaniach z listami sankcyjnymi, statusie PEP lub innych specjalnych oznaczeniach klienta.
Na podstawie tych śladów agent zaczyna łączyć kropki. Może wychwycić, że ten sam telefon loguje się do kilku kont, których właściciele oficjalnie nie mają ze sobą nic wspólnego. Albo że wzorzec wydatków klienta nagle przypomina schemat typowy dla przejętego konta: niespodziewane wypłaty gotówki, przelewy do nieznanych odbiorców, zakupy w miejscach, w których wcześniej dana osoba się nie pojawiała. W przypadku kont firmowych może zauważyć sekwencje transakcji, które z perspektywy skarbówki wyglądają jak klasyczna karuzela VAT.
Tu pojawia się napięcie, którego nie da się zignorować. Im więcej danych, tym lepsza ochrona przed oszustwami, ale równocześnie dokładniejszy portret codziennego życia klienta. Regulacje AML w UE, kolejne dyrektywy i wytyczne nadzoru mówią o minimalizacji danych i audytowalności modeli, ale w praktyce bank musi codziennie kalibrować granicę między skutecznym nadzorem a rozsądną ingerencją w prywatność.
Bardzo ważna jest przejrzystość. Klient powinien dostać prostą informację, co jest analizowane, w jakim celu i kto ma do tego dostęp. Jak powiedział mi niedawno jeden z dyrektorów ds. ryzyka w dużym banku, „agent ma wzmacniać, a nie podkopywać zaufanie do sektora”. Bez jasnej komunikacji skończymy z sytuacją, w której system działa poprawnie, ale ludzie zupełnie mu nie ufają.
Widać to zresztą szerzej, nie tylko w finansach. W artykule Kontrowersyjna funkcja kontaktów w ChatGPT: dokąd prowadzi „uspołecznianie” asystentów AI? pokazywałem, że im bardziej asystenci AI wchodzą w nasze relacje i zachowania, tym ostrzejsze stają się pytania o granice prywatności. W bankowości to samo pytanie wraca tylko z większą stawką, bo na końcu są pieniądze i relacja z instytucją zaufania publicznego.
Dla osób, które często podróżują albo pracują zdalnie, dochodzi jeszcze jeden przyziemny problem: logowania z różnych krajów mogą wyglądać podejrzanie. Systemy bezpieczeństwa widzą nagle serię sesji z kilku kontynentów i muszą zdecydować, czy to cyfrowy nomada, czy ktoś właśnie przejął dostęp. W praktycznym planowaniu wyjazdów pomagają serwisy pokroju HikersBay – nie tylko przy kosztach życia czy noclegach, lecz także przy ocenie bezpieczeństwa kierunku, co z kolei wpływa na to, jak korzystamy z bankowości w podróży. Czasem zwykłe poinformowanie banku o planowanej trasie robi różnicę między płynnymi płatnościami a serią nerwowych blokad.
Co agent AI Anthropic–FIS zmieni w pracy banków, compliance i w doświadczeniu klienta
Po co to wszystko bankom? Powody są dość przyziemne: presja regulatorów, rosnące kary za naruszenia AML, koszty utrzymania dużych zespołów operacyjnych i coraz większa kreatywność oszustów. W oficjalnych wypowiedziach przy okazji partnerstwa Anthropic–FIS pojawia się oczekiwanie, że agent AI ograniczy liczbę fałszywych alarmów i przyspieszy reakcję na te przypadki, które faktycznie oznaczają realne zagrożenie.
Z perspektywy zarządów i działów strategii korzyści są dość konkretne. Lepsza priorytetyzacja spraw to mniej godzin spędzonych nad „pustymi” alertami. Szybsze raportowanie do nadzorów – bo część pracy przygotuje agent, łącznie z draftem uzasadnienia decyzji. Do tego możliwość symulowania scenariuszy: co się stanie, jeśli zmienimy daną regułę, obniżymy próg kwotowy lub dodamy nowe kryterium geograficzne. Lista ryzyk jest równie długa: zależność od dostawcy modeli, pytania o wyjaśnialność decyzji, konieczność nowego typu audytu – tym razem nie tylko procesów, lecz także samego modelu AI.
Dla zespołów AML i compliance to realna zmiana codziennej pracy. Zamiast siedzieć równocześnie w pięciu systemach i sklejać historię klienta z kawałków, analityk pracuje z jednym, konwersacyjnym interfejsem. Może zapytać agenta o szczegóły, poprosić o porównanie podobnych przypadków, zlecić przygotowanie draftu raportu do nadzoru. Część osób będzie tym zachwycona – wreszcie mniej bezsensownego klikania. Inni mogą mieć poczucie, że ktoś wchodzi im w warsztat i próbuje „zautomatyzować” decyzje, które do tej pory były wyłącznie ludzkie.
Z punktu widzenia klienta bilans też nie jest zero-jedynkowy. Plusy są łatwe do wskazania: szybciej wychwycone przejęcie konta, sprawniejsze blokowanie podejrzanych transakcji, potencjalnie mniej absurdalnych zatrzymań normalnych przelewów „bo system tak powiedział”. Minusy bywają bolesne: nadgorliwe blokady, nieporozumienia przy podróżach, konieczność lepszej komunikacji push/SMS, która wprost tłumaczy, co się dzieje i dlaczego właśnie twoja karta została na chwilę uziemiona.
To wszystko dzieje się na tle szerszego ekosystemu cyfrowego, który zmienia się w tempie miesięcy, a nie lat. Przeglądarki, wyszukiwarki, systemy operacyjne – każdy drobny update potrafi zmienić zachowanie użytkowników i modele biznesowe. W tekście Aktualizacja Google Chrome a SEO: dlaczego kosmetyczne zmiany interfejsu mają realne skutki biznesowe pokazywałem, że drobna zmiana w układzie przeglądarki może przełożyć się na ruch, przychody i całą strategię marketingową. W bankowości jest podobnie – niewielka modyfikacja sposobu działania modelu AI może oznaczać tysiące dodatkowo zablokowanych operacji lub tyle samo transakcji uratowanych przed oszustami.
Co z tym zrobić tu i teraz? Menedżerowie w sektorze finansowym powinni przemyśleć własną strategię AI w obszarze ryzyka i compliance, zamiast czekać, aż takie rozwiązania „po prostu” przyjdą od dostawców. Fintechy mogą szukać integracji z agentami, a niekoniecznie budować wszystko od zera – przewagą będzie raczej spryt niż liczba linii kodu. Specjaliści AML mają przed sobą nowe zadanie: nauczyć się pracy ramię w ramię z modelami, zadawać im precyzyjne pytania, kwestionować wyniki, a nie tylko klikać „zaakceptuj sugestię”.
W pewnym momencie większym ryzykiem może okazać się brak własnego agenta AI niż jego obecność – i to będzie ciekawy moment dla całego sektora finansowego.

