Młodzi wolą ChatGPT od terapeutów? Co naprawdę mówi o nas nowe badanie

Młodzi wolą ChatGPT od terapeutów? Co naprawdę mówi o nas nowe badanie

Dlaczego nastolatki częściej pytają ChatGPT niż psychologa o zdrowie psychiczne

Północ z hakiem, ekran świeci, w głowie jazda bez trzymanki. Gdy miałem 16 lat, w takich momentach wklepywałem w Google coś w stylu „czy jestem normalny jeśli…”. Dziś pewnie zamiast tego odpaliłbym ChatGPT i napisał wprost: „czuję się jak śmieć, co mam zrobić?”. Zero dzwonienia do poradni, zero rejestracji, tylko okienko czatu.

Nowe badanie, które opisuje grupa norweskich i międzynarodowych badaczy, dokładnie w ten punkt trafia. Młodzi ludzie dostawali zestaw odpowiedzi na prawdziwe pytania dotyczące zdrowia psychicznego. Część odpowiedzi pochodziła od specjalistów pracujących w oficjalnym serwisie dla młodzieży, część napisał ChatGPT. Ani uczestnicy badania, ani nawet część specjalistów oceniających odpowiedzi nie wiedzieli, co jest czym.

Zadanie było proste: ocenić empatię, jasność, przydatność i ogólną „ludzkość” odpowiedzi. Wynik? Młodzi częściej stawiali wyżej… AI. Opisywali odpowiedzi ChatGPT jako bardziej zrozumiałe, konkretne i po prostu pomocne. Jeden z badaczy stwierdził, że chatbot „wygrywa stylem komunikacji, niekoniecznie treścią” – i to jest bardzo celne podsumowanie.

Warto podkreślić jedną rzecz, bo tu łatwo o zbyt daleko idące wnioski. Badanie nie miało na celu drobiazgowego sprawdzenia, czy wszystkie odpowiedzi są zgodne z wytycznymi psychiatrii czy psychologii klinicznej. Sprawdzano to, jak młodzi odbierają styl i ton komunikatu, a nie to, czy ChatGPT postawiłby dobrą diagnozę. To ważny niuans, który w dyskusjach w socialach potrafi całkiem zniknąć.

To zresztą nie jest pojedynczy wyskok. W różnych krajach rośnie zaufanie do porad AI – również w kontekście zdrowia i zdrowia psychicznego. Ludzie pytają boty o leki, o interpretację wyników badań, o to, jak poradzić sobie z lękiem przed szkołą czy pracą. Teleporady weszły nam w krew, więc rozmowa z chatbotem nie wydaje się już aż tak kosmiczna.

Czy to znaczy, że ChatGPT naprawdę jest „lepszym terapeutą”? Bardziej prawdopodobne, że system pomocy psychologicznej jest tak niewydolny, że wielu nastolatków zwyczajnie nie ma komu wysłać wiadomości. Między: „wizyta za trzy tygodnie o 7:10 rano” a „odpowiedź w 5 sekund o 2:37 w nocy” wybór nie jest specjalnie trudny. I to chyba bardziej oskarżenie wobec nas, dorosłych, niż laurka dla AI.

Co młodzi widzą w ChatGPT: empatia na żądanie, zero wstydu i odpowiedź w pięć sekund

Jeśli rozwalam się psychicznie o 2:37 w nocy, ChatGPT zawsze odbierze. Terapeuta – niekoniecznie. To brzmi brutalnie, ale właśnie tak wielu młodych opisuje przewagę AI: jest zawsze, nie ocenia, nie przewraca oczami, nie pamięta, co pisałem tydzień temu, więc nie ma „focha”.

W badaniu i w zwykłych rozmowach przewijają się podobne powody. Szybkość odpowiedzi. Możliwość pisania o wszystkim anonimowo, bez patrzenia komuś w oczy. Poczucie, że nie ma „głupich pytań”. Kto kiedykolwiek siedział naprzeciwko lekarza czy psychologa i jąkał się, próbując wyjaśnić, o co chodzi, ten wie, jak kusząca jest alternatywa w postaci czatu, gdzie po prostu klepiemy, co ślina na klawiaturę przyniesie.

Młodym podoba się też styl odpowiedzi AI. Spokojny ton, dużo zdań typu „to normalne, że tak się czujesz”, konkretne propozycje działań – co możesz zrobić dziś wieczorem, z kim pogadać, jak trochę odetchnąć. Do tego brak zniecierpliwienia. Człowiek specjalista bywa oszczędny w słowach: „proszę skorzystać z konsultacji w poradni zdrowia psychicznego”. Chatbot jest jak ta rozmowna ciotka, która odpowiada trzema akapitami wsparcia, przykładami, sugestiami.

Sam któregoś razu wrzuciłem do ChatGPT pytanie z gatunku „co zrobić, kiedy czujesz się kompletnie przytłoczony i nie wiesz nawet, od czego zacząć sprzątanie we własnej głowie”. I złapałem się na myśli: kurczę, to brzmi całkiem sensownie. Kilka prostych kroków, zero oceniania, żadnego „proszę udać się do specjalisty” w pierwszym zdaniu. To nie była magia. To był po prostu dobrze ułożony, ludzki tekst.

To wszystko dzieje się na tle większej zmiany: AI w telefonie staje się pierwszą linią kontaktu do wszystkiego. Od ustawiania budzika, przez planowanie dnia, po sprawdzanie, czy to, co czuję, to już depresja, czy „po prostu gorszy tydzień”. Widać to też w dyskusji o tym, czy wygra Apple Intelligence czy ChatGPT w codziennym użyciu. Wybór narzędzia nie jest już techniczną ciekawostką. To decyzja, do kogo piszemy, kiedy chcemy z kimś „pogadać” o tym, jak się mamy.

Gdzie kończy się pomoc, a zaczyna ryzyko: kiedy porady AI w zdrowiu psychicznym mogą zrobić krzywdę

Brzmi pięknie, ale jest jeden problem: zdrowie psychiczne to nie jest miejsce na eksperymenty z modelem językowym.

Wspomniane badanie pokazało, że młodzi kochają styl AI. Ale nie sprawdzało systematycznie, czy w odpowiedziach pojawiają się błędy, ani czy sugestie są zgodne z wytycznymi psychiatryczno-psychologicznymi. Uczestnicy oceniali głównie to, czy czują się zrozumiani i czy odpowiedź wydaje się sensowna. To nie jest to samo, co bezpieczna, klinicznie poprawna rada.

Modele takie jak ChatGPT mają jeszcze jedną cechę, która w tym kontekście jest naprawdę niepokojąca: potrafią bardzo przekonująco pisać rzeczy nieprawdziwe. W świecie AI mówi się o „halucynacjach” – sytuacji, gdy system z pełną powagą generuje błędne informacje, bo takie wzorce wyłapał z danych. Tekst wygląda jak pisany przez pewnego siebie eksperta, tylko że ekspert właśnie zmyśla.

W praktyce może to oznaczać kilka konkretnych zagrożeń. Po pierwsze, minimalizowanie poważnych objawów. Zamiast „to wygląda jak coś, co wymaga pilnej konsultacji”, użytkownik czyta: „to pewnie stres, spróbuj medytacji i spaceru”. Brzmi miło, ale jeśli ktoś ma myśli samobójcze, taka rada jest po prostu niebezpieczna.

Po drugie, niewłaściwa reakcja w sytuacjach zagrożenia życia. Człowiek-terapeuta ma procedury, szkolenia, superwizję. Chatbot – tylko statystykę tego, co dotąd przeczytał. Może nie wychwycić czerwonej flagi, bo ktoś ubrał dramatyczną treść w żart. Może odpisać „to brzmi poważnie, porozmawiaj z kimś bliskim”, kiedy trzeba wezwać pogotowie.

Po trzecie, wpychanie użytkownika w bańkę „miłych, wspierających” rad, które odciągają go od kontaktu ze specjalistą. Seria sensownie brzmiących odpowiedzi daje poczucie, że „coś z tym robię”, chociaż realnie kręcimy się w miejscu. Część lekarzy i psychologów coraz głośniej ostrzega przed traktowaniem chatbotów jak terapii – właśnie z tego powodu.

W swoim tekście o porażkach ChatGPT Health w testach medycznych pokazywałem, że nawet przy „twardszych” tematach – lekach, badaniach, objawach – AI potrafi się mylić i mieszać wątki w sposób, który dla laika jest niewidoczny. Jeśli dodamy do tego kruchą psychikę nastolatka, robi się naprawdę groźnie. W kryzysie psychicznym skutki błędnej porady mogą być natychmiastowe i bardzo poważne.

To, że młodzi wybierają AI ponad ludzi, mówi tyle samo o możliwościach modeli, co o tym, jak bardzo zaniedbaliśmy system wsparcia psychicznego dla nastolatków.

Jak reagować na „pokolenie czatu z botem”: zadanie dla psychologów, szkół i rodziców

Niedawno rozmawiałem z młodszym kuzynem, licealistą. Mówi: „Zanim powiem coś mamie albo wychowawczyni, najpierw testuję rozmowę z ChatGPT. Sprawdzam, jak to w ogóle zabrzmi”. Uśmiechnąłem się, ale w środku zapaliła się lampka. Skoro chatbot jest „próbą generalną” dla trudnych rozmów, to pytanie nie brzmi już „czy młodzi używają AI do emocji”, tylko: co my z tym zrobimy.

Od strony psychologów jedno jest jasne: udawanie, że temat nie istnieje, to ślepa uliczka. Na sesjach coraz częściej pojawiają się zdania „pisałem o tym z botem” albo „AI powiedziała mi, że…”. Można to obśmiać. Można też włączyć do pracy. Pytać nastolatków, z jakich narzędzi korzystają, prosić, żeby przynieśli przykładowe odpowiedzi. Razem rozbierać je na czynniki: co tu jest pomocne, a co wątpliwe, gdzie brakuje reakcji na zagrożenie.

Część specjalistów już eksperymentuje z używaniem modeli jako narzędzi pomocniczych – na przykład do psychoedukacji między sesjami, prostych ćwiczeń, tworzenia notatek. Klucz jest jeden: jasna granica. AI jako dodatek, który pomaga w języku i organizacji, ale nie jako „terapeuta w telefonie”.

Szkoły mają tu swoją robotę. To idealny temat na lekcję wychowawczą albo zajęcia o higienie cyfrowej. Zamiast zakazywać AI na korytarzu, sensowniej jest pokazać różnicę między wsparciem informacyjnym a profesjonalną pomocą. Uczniowie powinni mieć też bardzo konkretną mapę: co robię, kiedy mam kryzys psychiczny, do kogo idę, jakie są dyżury psychologa, gdzie mogę napisać anonimowo, ale do człowieka. I drobna, praktyczna rada: zanim nauczyciel zacznie o tym gadać z klasą, niech sam spróbuje pogadać z chatbotem o czymś trudniejszym. Dużo łatwiej rozmawia się o czymś, czego się choć trochę dotknęło.

Rodzicom ten temat uderza prosto w serce. Jeśli dziecko woli pisać do bota niż do mamy czy taty, to nie zawsze jest „wina technologii”. Często to sygnał, że boi się reakcji, oceny, kazania. Zamiast śmiać się z „rozmów z robotem”, lepiej powiedzieć kilka bardzo konkretnych zdań. Na przykład: „Jeśli kiedykolwiek wpiszesz do AI coś, co cię przestraszy albo przygnębi, możesz z tym przyjść do mnie, nawet jeśli jest trzecia w nocy – najwyżej będę zaspany, ale żywy”. Albo: „Jeśli łatwiej ci najpierw napisać to do bota, a potem pokazać mi ten tekst, też jest ok”.

AI stała się też bohaterką głośnych historii – od odmówienia wykonania „ataku na premiera Japonii” po różne medialne dramy. W tekście o czarnym PR wokół sztucznej inteligencji pisałem, że zaufanie do modeli budują przede wszystkim takie spektakularne przypadki – albo nas straszą, albo zachwycają. Tymczasem w zdrowiu psychicznym potrzebujemy mniej dramy, a więcej trzeźwego, codziennego podejścia. Ani ślepej wiary w to, że „AI mnie uratuje”, ani totalnej paniki, że „bot zniszczy dzieciom mózgi”. Musimy nauczyć się żyć z narzędziem, które już siedzi w kieszeni naszych nastolatków.

Myślę, że za kilka lat nikt nie będzie już pytał „czy młodzi korzystają z AI do rozmów o emocjach”. Pytanie będzie inne: co my – dorośli – zrobiliśmy, żeby te rozmowy były dla nich choć odrobinę bezpieczniejsze.


Leave a Reply

Your email address will not be published. Required fields are marked *