Dlaczego w ogóle szukamy porad zdrowotnych u AI i co obiecuje nowy model
Przyłapałem się ostatnio na czymś dość niepokojącym. Zamiast zadzwonić do przychodni, żeby zapytać o dziwny ból, szybciej otworzyłem chatbota i wystukałem objawy. Parę sekund, ściana tekstu i poczucie, że „coś już wiem”. Znasz to?
Nie jesteśmy z tym sami. Co tydzień setki milionów ludzi zadają modelom językowym pytania o leki, wyniki badań, szczepienia czy dietę przy konkretnej chorobie. To wygodne, ale w tle cały czas miesza się ciekawość („sprawdzę, co AI powie”) z lękiem („a jeśli coś pominie albo się pomyli?”) – po obu stronach, i u pacjentów, i u lekarzy.
Na tym tle pojawia się nowy bohater: wyspecjalizowany model AI do zdrowia. Nie uniwersalny ChatGPT, który zna się na wszystkim od przepisów na brownie po Python, tylko system projektowany od początku z myślą o medycynie. Według publicznych informacji twórcy takiego modelu łączą klasyczny „mózg” językowy z zamkniętymi, profesjonalnymi bazami: literaturą medyczną, czasopismami naukowymi, oficjalnymi wytycznymi klinicznymi, a nie przypadkowymi forami.
Różnica jest ważna. Taki model nie przeszukuje losowych stron, tylko sięga do uporządkowanych, aktualizowanych zbiorów wiedzy, często pod kuratelą lekarzy i instytucji. Do tego jest projektowany dwutorowo: ma być zrozumiały dla zwykłego użytkownika, ale jednocześnie użyteczny dla osób z branży – jako narzędzie do szybkiego researchu, a nie cyfrowy „doktor Google”. I nadal, mimo marketingu, nie jest to lekarz.
Pytanie brzmi więc: skąd wiemy, że odpowiada „lepiej” niż ChatGPT czy inny ogólny chatbot? I co to „lepiej” w ogóle znaczy dla ciebie jako pacjenta, który po prostu chce zrozumieć swoje objawy albo sens wyniku morfologii?
Jak sprawdzono, że nowy model lepiej odpowiada na pytania zdrowotne
Testowanie medycznej jakości odpowiedzi AI brzmi poważnie, ale da się to opisać zupełnie po ludzku. Badacze i firmy biorą zestaw tych samych pytań – na przykład z egzaminów dla lekarzy albo z realnych scenariuszy pacjent–lekarz – i przepuszczają je przez różne modele. Potem ich odpowiedzi oceniają eksperci.
Patrzą nie tylko na to, czy diagnoza jest trafiona. Liczy się poprawność medyczna, zgodność z aktualnymi wytycznymi, kompletność (czy model nie pomija kluczowych elementów), język zrozumiały dla zwykłego człowieka oraz coś, co mnie szczególnie interesuje: czy AI potrafi jasno zaznaczyć moment, w którym rozmowa powinna się skończyć słowami „tu już trzeba iść do lekarza”.
Nowe modele zdrowotne kombinują to jeszcze inaczej. Bazowy model językowy jest spięty z profesjonalnymi źródłami, a odpowiedzi są automatycznie podpierane cytowaniami do konkretnych zaleceń lub publikacji. W praktyce wygląda to tak, że pod tekstem widzisz listę dokumentów, z których AI korzystała. Dla świata generatywnej AI, przyzwyczajonego do czatów „bez źródeł”, to spory przeskok w stronę transparentności, o czym wspominają również lekarze zaangażowani w te projekty.
Jedna z osób współtworzących taki system ujęła to tak, że kluczem nie jest „sprytniejszy chatbot”, tylko ograniczenie halucynacji – czyli sytuacji, gdy model brzmi bardzo pewnie, a mówi bzdury – poprzez twarde oparcie na zweryfikowanych danych. Brzmi świetnie, ale tu warto na chwilę wcisnąć hamulec.
Nawet najlepsze wyniki w testach to wciąż laboratorium. Prawdziwe życie jest brudne: pacjent opowiada niejasno, miesza fakty, ma dwie choroby na raz i dziwną reakcję na lek sprzed pięciu lat. Jeden scenariusz z badania nie odda tego chaosu. Dlatego nie ma magicznego progu, po którym „model jest nieomylny”.
Do tego dochodzi jeszcze jedna rzecz, o której mało się mówi: jakość pytania. Widać to świetnie w historii opisanej w tekście Prosty trik, który zmienia odpowiedzi ChatGPT i Gemini. Tam pokazano, jak drobna zmiana sposobu zadawania pytań potrafi całkowicie odmienić jakość odpowiedzi. W zdrowiu działa to tak samo, tylko stawka jest większa – niedoprecyzowane pytanie może sprawić, że nawet świetny model pójdzie w złą stronę.
Specjalistyczna AI do zdrowia vs uniwersalny chatbot: co ona robi inaczej w praktyce
Wyobraź sobie scenę: piszesz do zwykłego chatbota „boli mnie brzuch po lewej stronie, co to może być?”. Po chwili dostajesz litanię możliwych chorób – od zwykłego skurczu po nowotwór. Długo, uczone słowa, czasem półstraszne. Po takiej lekturze nie czujesz się spokojniejszy, raczej masz ochotę pakować się do szpitala.
Specjalistyczny model zdrowotny ma zachowywać się inaczej. Zamiast wypisywać jedenaście potencjalnych diagnoz, próbuje osadzić twoje objawy w medycznych wytycznych. Zawęża odpowiedź do scenariuszy, które faktycznie pasują, wyraźnie pisze, czego nie da się ocenić na odległość i dużo częściej powtarza komunikat: „to wymaga badania fizykalnego / pilnego kontaktu z lekarzem”.
Od kuchni różnica polega na kilku warstwach. Po pierwsze, dostęp do specjalistycznych baz wiedzy, a nie ogólnego internetu. Po drugie, dodatkowe moduły, które sprawdzają treść pod kątem bezpieczeństwa: czy nie ma ryzykownych sugestii, czy rekomendacje są zgodne z wytycznymi. Po trzecie, inny styl podawania wniosków – mniej „diagnoz”, więcej uporządkowania informacji i wskazówek co dalej.
W praktyce model ma ograniczać halucynacje i przypadkowe porady. Każda odpowiedź powinna być powiązana z konkretnymi źródłami, a nie z „przeczuciem” modelu. Dla pacjenta przekłada się to na kilka prostych rzeczy: kiedy sprawdzasz lek, widzisz odniesienie do charakterystyki produktu leczniczego, przy wynikach badań dostajesz jasne wyjaśnienie zakresów i sugestię, o co dopytać lekarza, przy stylu życia – informacje oparte na zaleceniach towarzystw naukowych, a nie blogu kogoś z siłowni.
Z perspektywy lekarza to trochę inna bajka. Taki model może służyć jako szybki podgląd rzadkiej choroby, przypomnienie schematu leczenia, podsumowanie nowej publikacji. Ale nadal jest to pomocnik, a nie automat do stawiania diagnozy. Kilkoro lekarzy, z którymi rozmawiałem, przyznaje wprost: traktują AI jako „superwyszukiwarkę na sterydach”, którą trzeba filtrować przez własne doświadczenie.
To zresztą szerszy trend. W programowaniu mamy już agentów stworzonych specjalnie do kodu – dobrze opisana jest choćby historia w tekście Jak powstał Claude Code i dlaczego oznacza nową erę agentów programistycznych. Zamiast jednego „wszystkomogącego” bota pojawiają się wyspecjalizowane modele do konkretnych zadań. Medycyna idzie tą samą ścieżką.
Miałem już zresztą sytuację, w której boleśnie zobaczyłem granice AI. Wpisałem do uniwersalnego chatbota swoje wyniki badań – nic bardzo poważnego, ale parę rzeczy na granicy normy. Model przygotował bardzo przekonującą, spokojną interpretację, z której wynikało, że „raczej wszystko jest w porządku”. Na wizycie lekarz spojrzał na to samo i powiedział: „tu bym jednak zlecił dodatkowe badanie, bo widzę pewien wzorzec”. Tego niuansu AI wtedy kompletnie nie wyłapała.
Jak bezpiecznie korzystać z porad AI o zdrowiu i sensownie łączyć je z wizytą u lekarza
AI może pomóc, ale wymaga kilku prostych reguł bezpieczeństwa. I trochę pokory z naszej strony.
Jeśli korzystasz z niej jako pacjent, traktuj odpowiedzi jako wstęp do rozmowy z lekarzem, a nie diagnozę. Dobre wykorzystanie wygląda tak: model pomaga ci zrozumieć pojęcia z opisu badania, podpowiada, o co dopytać, a ty spisujesz te pytania i zabierasz na wizytę. Zwracaj uwagę, czy przy odpowiedziach pojawiają się rzetelne źródła. Jeśli AI nie potrafi wskazać, na czym się opiera, to jest sygnał ostrzegawczy.
Jest też granica, której nie warto przekraczać: decyzje w stylu „czy jechać na SOR, czy poczekać tydzień” nie powinny zależeć od chatbota. Przy nagłych objawach – duszność, ból w klatce, objawy udaru, silny ból brzucha – kierunek jest jeden: realny kontakt z personelem medycznym. Model może najwyżej przypomnieć listę niepokojących sygnałów.
Dla lekarzy perspektywa jest inna. AI może przyspieszyć wstępny research, pomóc odszukać fragment wytycznych, podsunąć prostsze wyjaśnienie dla pacjenta. Ale każdy taki wynik przechodzi przez filtr twojej wiedzy, doświadczenia, znajomości konkretnego człowieka po drugiej stronie biurka. Coraz więcej rozmów o pracy biurowej i agentach AI – dobrze opisanych choćby w tekście Agenci AI w biurze: komu zabiorą pracę do 2026 roku, a komu ją odmienią? – dotyczy też medycyny. Tu jednak każdy błąd ma zupełnie inny ciężar niż źle napisany raport.
Jest jeszcze grupa, o której rzadko się mówi: osoby często podróżujące, korzystające z zagranicznych usług medycznych. Sam miałem raz sytuację, kiedy w małym mieście za granicą szukałem pomocy dla dziecka z gorączką. Sprawdzałem kontekst podróży – ceny, pogodę, ogólne warunki – w serwisie HikersBay, a równolegle odpalałem medycznego chatbota, żeby zrozumieć ogólne zalecenia i nazwy leków w lokalnym języku. Taka kombinacja bywa realnie pomocna, o ile pamiętamy, że AI nie zna naszych pełnych danych medycznych i nie widzi pacjenta na oczy.
Na końcu i tak zostaje bardzo przyziemna prawda. Specjalistyczne modele AI potrafią świetnie uporządkować wiedzę, czasem nawet lepiej niż wyszukiwarka czy ogólny chatbot. Ułatwiają rozmowę z lekarzem, skracają czas szukania informacji, pozwalają zrozumieć trudne słowa z opisu badań. Ale decyzja zdrowotna – w stylu „biorę ten lek”, „odkładam wizytę” albo „jadę do szpitala” – nadal należy do ciebie i do lekarza, nie do modelu, który wyświetla się w okienku czatu.

