Nastolatki, samotność i AI: kiedy chatbot zastępuje przyjaciela

Nastolatki, samotność i AI: kiedy chatbot zastępuje przyjaciela

Nowe dane o nastolatkach i AI: od szkolnego pomocnika do emocjonalnego wsparcia

Jeszcze kilka lat temu sztuczna inteligencja w życiu nastolatków kojarzyła się głównie z wyszukiwarką internetową, prostymi asystentami głosowymi lub funkcjami podpowiedzi tekstu. Dziś sytuacja wygląda zupełnie inaczej. Zaawansowane modele językowe – takie jak ChatGPT, Claude czy Grok – stały się dla młodych ludzi codziennym narzędziem, z którego korzystają niemal tak naturalnie jak z komunikatorów czy mediów społecznościowych.

Najnowsze badania Pew Research Center, szeroko komentowane między innymi przez amerykańskie media, w tym „The Wall Street Journal”, pokazują, że zdecydowana większość amerykańskich nastolatków przynajmniej okazjonalnie korzysta z narzędzi opartych na sztucznej inteligencji. Dominującym zastosowaniem jest pomoc w nauce: szybkie wyszukiwanie informacji, wyjaśnienia skomplikowanych zagadnień, tworzenie planów nauki czy porządkowanie notatek. Coraz częściej jednak te same narzędzia pełnią dodatkową funkcję – stają się miejscem rozmowy o emocjach, codziennych problemach i osobistych dylematach.

Według zarysowanych w tych badaniach trendów, wyraźna mniejszość, ale jednak istotna grupa – szacunkowo kilkanaście procent nastolatków – przyznaje, że zdarza im się szukać u chatbotów wsparcia emocjonalnego, porady w sprawach osobistych lub po prostu „towarzystwa” w chwilach samotności. Z perspektywy statystyki to wciąż mniejszość, ale w skali populacji oznacza to miliony młodych ludzi na całym świecie, co przyciąga uwagę psychologów, pedagogów, regulatorów oraz rodziców.

Kluczowe jest przy tym jedno zastrzeżenie: ogólne modele językowe, takie jak ChatGPT, Claude czy Grok, nie są projektowane jako narzędzia terapeutyczne. Ich podstawowym celem jest generowanie tekstu na podstawie wzorców językowych, a nie prowadzenie terapii czy podejmowanie odpowiedzialnych decyzji dotyczących zdrowia psychicznego użytkownika. Mimo to część młodych osób nadaje im rolę „cyfrowych przyjaciół”, z którymi łatwiej się otworzyć niż z rodzicem, nauczycielem czy szkolnym psychologiem.

Rosnące zainteresowanie hasłami w rodzaju „nastolatki i sztuczna inteligencja”, „AI zamiast psychologa” czy „dzieci korzystają z chatbotów” dobrze oddaje skalę społecznego niepokoju i ciekawości. Pytanie nie brzmi już, czy młodzi korzystają z AI, lecz jak to robią, jakie są konsekwencje tego zjawiska dla ich dobrostanu psychicznego oraz jak dorośli mogą im w tym towarzyszyć – bez straszenia technologią, ale i bez naiwnej wiary w jej możliwości.

Dlaczego młodzi ludzie zwracają się do chatbotów po wsparcie emocjonalne

Okres dorastania to czas intensywnych zmian – biologicznych, psychologicznych i społecznych. Dzisiejsi nastolatkowie przechodzą przez ten etap w rzeczywistości, w której presja szkolna, nieustanny napływ informacji i porównywanie się z innymi w mediach społecznościowych są silniejsze niż kiedykolwiek wcześniej. Z wielu badań nad dobrostanem młodzieży wynika, że rośnie poczucie osamotnienia, problemów ze snem, lęku przed przyszłością i braku zrozumienia ze strony dorosłych.

W tym kontekście chatboty oferują coś, czego tradycyjne formy wsparcia często nie zapewniają: dostępność 24 godziny na dobę, natychmiastową odpowiedź i pozorny brak oceny. Nastolatek nie musi umawiać się na wizytę, czekać tygodniami w kolejce do specjalisty ani mierzyć się z własnym wstydem, opowiadając o swoich obawach rodzicom. Wystarczy otworzyć aplikację i napisać: „Boję się jutrzejszego egzaminu”, „Pokłóciłem się z przyjaciółmi” albo „Nie wiem, co chcę robić w życiu”.

Interfejs konwersacyjny modeli językowych przypomina zwykłą rozmowę na czacie. Dla cyfrowych tubylców, którzy od dzieciństwa posługują się komunikatorami, jest to naturalne środowisko komunikacji. Zaawansowane modele potrafią generować odpowiedzi utrzymane w empatycznym tonie, zachęcające do refleksji, proponujące techniki radzenia sobie ze stresem czy sposoby opisania własnych emocji. To wzmacnia wrażenie realnej „relacji”, choć w istocie jest ona symulacją.

W praktyce można wyobrazić sobie wiele sytuacji, w których młoda osoba woli zacząć od rozmowy z AI niż z człowiekiem. Uczennica zestresowana przed ważnym egzaminem prosi chatbota o pomoc w ułożeniu planu powtórek i kilka prostych technik relaksacyjnych. Nastolatek skonfliktowany z grupą rówieśniczą opisuje sytuację, pytając, czy powinien przeprosić, czy raczej się wycofać. Inna osoba, martwiąca się o swoją przyszłość zawodową, szuka „bezpiecznej” przestrzeni, by opisać swoje obawy i otrzymać choćby wstępną, uporządkowaną perspektywę.

Dla części młodych ludzi taka rozmowa staje się pierwszym krokiem – próbą „na sucho” przed otwarciem się przed psychologiem, pedagogiem czy rodzicem. Łatwiej napisać szczerze do bezosobowego chatbota, niż spojrzeć w oczy dorosłemu i powiedzieć: „Nie radzę sobie”. W ten sposób sztuczna inteligencja wpisuje się w szerszy obraz: od narzędzia do nauki i rozrywki przeistacza się w stałego towarzysza codzienności, obejmującego także bardziej intymne sfery życia.

Potencjalne korzyści: kiedy AI może wspierać dobrostan psychiczny nastolatków

Fakt, że nastolatki rozmawiają z chatbotami o emocjach, nie musi automatycznie oznaczać zagrożenia. W określonych warunkach i przy jasno postawionych granicach AI może pełnić rolę wspierającą – jako uzupełnienie, a nie substytut profesjonalnej pomocy czy relacji z bliskimi.

Po pierwsze, rozmowa z chatbotem może obniżać barierę wejścia do mówienia o emocjach. Dla wielu osób samo nazwanie tego, co czują, jest trudne. Interakcja z AI pozwala „przećwiczyć” opowiadanie o sobie w bezpieczniejszym, mniej konfrontacyjnym środowisku. Nastolatek może sprawdzić, jak brzmi jego historia, zanim zdecyduje się powtórzyć ją psychologowi, nauczycielowi czy rodzicowi. Taki etap przejściowy bywa pomocny zwłaszcza dla osób wstydliwych, nieufnych lub mających za sobą trudne doświadczenia w relacjach.

Po drugie, modele językowe potrafią dostarczyć podstawowych informacji psychoedukacyjnych. Wyjaśniają, czym różni się zwykły stres od ataku paniki, jakie są typowe objawy wypalenia szkolnego, kiedy warto rozważyć kontakt z psychiatrą czy terapeutą. Mogą też przypomnieć, że w sytuacjach kryzysowych należy zwrócić się do lokalnych służb pomocowych, telefonu zaufania lub osoby dorosłej w najbliższym otoczeniu. Dla wielu nastolatków to pierwszy kontakt z uporządkowaną wiedzą na temat zdrowia psychicznego.

Po trzecie, AI może być przydatnym narzędziem do ćwiczenia komunikacji i nazywania emocji. Dzięki pytaniom typu: „Co dokładnie czujesz w tej sytuacji?”, „Jakie myśli pojawiają się w twojej głowie?”, „Czy możesz opisać to bardziej szczegółowo?” chatbot pomaga młodej osobie strukturyzować narrację o sobie. To z kolei ułatwia późniejszą rozmowę z człowiekiem-specjalistą, skracając drogę od chaosu przeżyć do bardziej spójnego opisu problemu.

Po czwarte, ogólne modele językowe mogą wspierać codzienne radzenie sobie poprzez proste narzędzia organizacji czasu, techniki zarządzania stresem czy przypomnienia o podstawowych zasadach higieny psychicznej: regularnym śnie, aktywności fizycznej, ograniczeniu czasu ekranowego, dbaniu o relacje offline. Nie zastąpi to profesjonalnej interwencji, ale może pomóc w utrzymaniu elementarnego porządku dnia, który sam w sobie jest czynnikiem chroniącym.

Warto zauważyć, że część firm technologicznych deklaruje wprowadzanie dodatkowych zabezpieczeń dla nieletnich – od specjalnych trybów „dla młodzieży”, przez ostrzejsze filtry treści, po algorytmy wykrywające sygnały możliwego kryzysu. Niektóre platformy testują także współpracę z ekspertami od zdrowia psychicznego przy projektowaniu scenariuszy odpowiedzi. To pokazuje, że branża dostrzega wrażliwość tego obszaru, nawet jeśli rozwiązania są dalekie od ideału.

Należy jednak bardzo wyraźnie podkreślić: żaden chatbot ogólnego przeznaczenia nie powinien być traktowany jako odpowiednik psychologa, psychiatry czy terapeuty. AI może wspierać, inspirować i edukować, ale nie zastępuje kontaktu z człowiekiem. Niniejszy artykuł ma charakter informacyjny i nie stanowi porady medycznej ani psychologicznej.

Ryzyka i ciemne strony: gdy „AI zamiast psychologa” staje się niebezpiecznym skrótem

Obok potencjalnych korzyści istnieje cały katalog ryzyk związanych z traktowaniem modeli językowych jako substytutu profesjonalnej pomocy psychologicznej. Pierwszym z nich jest brak gwarancji jakości i poprawności udzielanych odpowiedzi. Model językowy generuje treści na podstawie statystycznych zależności w danych, a nie własnego doświadczenia, sumienia czy odpowiedzialności. Może więc udzielić porady, która brzmi rozsądnie, ale w danym kontekście jest nietrafiona, nieprecyzyjna, a w skrajnych przypadkach – szkodliwa.

Drugim zagrożeniem jest ryzyko pogłębiania izolacji społecznej. Jeżeli nastolatek zaczyna systematycznie zastępować rozmowy z rówieśnikami i bliskimi wielogodzinnymi interakcjami z chatbotem, może stopniowo tracić umiejętności budowania relacji offline. Wzmacnia się wtedy błędne koło: im trudniej w świecie rzeczywistym, tym częściej ucieczka w „bezpieczną” relację z AI, która nie stawia wymagań, nie obraża się, nie wycofuje – i nigdy nie mówi, że ma dość rozmowy.

Trzecim problemem jest złudzenie „rozumienia”. Chatbot może pisać: „Rozumiem, że jest ci ciężko” lub „To musi być dla ciebie bardzo trudne”, ale w rzeczywistości nie odczuwa empatii, nie ma własnych przeżyć ani zdolności do współodczuwania. Symuluje dialog, nie wchodząc w prawdziwą relację. Dla nastolatka, który desperacko szuka kogoś, kto go „zrozumie”, takie złudzenie może być kuszące, ale też potencjalnie niebezpieczne, jeśli zastąpi stopniowe budowanie zaufania do realnych ludzi.

Czwartym i szczególnie poważnym ryzykiem jest brak adekwatnej reakcji w sytuacjach kryzysowych, na przykład przy myślach samobójczych, samookaleczeniach czy przemocy domowej. Większość odpowiedzialnych dostawców AI wprowadza procedury bezpieczeństwa, jednak modele wciąż mogą nie wychwycić wszystkich sygnałów, zareagować zbyt ogólnie lub odesłać użytkownika do standardowych komunikatów. W sytuacji, w której liczy się szybkość i precyzja działania, taka odpowiedź może okazać się niewystarczająca.

Nie można także pominąć kwestii prywatności i bezpieczeństwa danych. Rozmowy z chatbotem często zawierają wrażliwe informacje: historie rodzinne, opisy konfliktów, szczegóły dotyczące zdrowia psychicznego, orientacji seksualnej czy doświadczeń przemocy. Te treści – choć zwykle anonimizowane – pozostają częścią historii rozmów i są przetwarzane przez systemy należące do dużych firm technologicznych. Rodzi to pytania o sposoby przechowywania, zabezpieczania i ewentualnego dalszego wykorzystywania takich danych.

Reakcje samych firm sygnalizują, że zagrożenia te są realne. Decyzja Character.AI o zablokowaniu dostępu do swoich usług dla osób poniżej 18. roku życia czy wycofanie modeli oskarżanych przez użytkowników o zbyt „emocjonalny” styl interakcji pokazują, że nawet twórcy dostrzegają ryzyko budowania nadmiernej więzi z chatbotem. Dla kontrastu profesjonalna pomoc psychologiczna opiera się na jasno określonych standardach etycznych, superwizji, odpowiedzialności prawnej i zawodowej. Model językowy z definicji nie spełnia tych kryteriów.

Jak rozmawiać z nastolatkami o AI: praktyczne wskazówki dla rodziców i nauczycieli

Skuteczna reakcja dorosłych na zjawisko „AI jako przyjaciela” nie polega na zakazach czy moralnej panice. Znacznie ważniejsze jest zbudowanie przestrzeni do spokojnej, partnerskiej rozmowy z młodymi ludźmi. Podstawą jest postawa zaciekawienia zamiast krytyki. Zamiast zaczynać od zdań typu „Przestań rozmawiać z tym chatbotem”, warto zapytać: „Z jakich narzędzi korzystasz? Do czego są ci potrzebne? Co ci w nich pomaga, a co budzi wątpliwości?”

Na tej bazie można wypracować wspólne „reguły gry”. Dobrym punktem wyjścia jest uzgodnienie, że AI może być użytecznym wsparciem w nauce, planowaniu dnia czy porządkowaniu myśli, ale nie zastępuje psychologa, lekarza ani zaufanego dorosłego. Warto jasno powiedzieć: „Jeśli czujesz się naprawdę źle, zmartwiony, przestraszony lub masz myśli, że nie chcesz żyć – w pierwszej kolejności przyjdź do mnie, do szkolnego psychologa lub innej osoby dorosłej, a nie do chatbota”.

Kolejnym ważnym obszarem rozmowy jest prywatność. Nastolatkowie często nie zdają sobie sprawy, jak szczegółowe i wrażliwe są informacje, które wpisują w okno czatu. Dorośli powinni wyjaśnić, że lepiej unikać podawania pełnych danych osobowych, adresu, informacji finansowych czy dokładnych opisów sytuacji, które mogłyby zidentyfikować inne osoby. W przypadku bardzo intymnych treści – dotyczących przemocy, zdrowia psychicznego, orientacji czy tożsamości – warto zachęcać do rozmowy z zaufanym człowiekiem, a nie z algorytmem.

Niezwykle istotna jest także nauka krytycznego myślenia. Nastolatki powinny rozumieć, że odpowiedzi AI są sugestiami do rozważenia, a nie objawioną prawdą. Można wspólnie przeanalizować kilka odpowiedzi chatbota, zadając pytania: „Czy to ma sens? Czego tutaj brakuje? Co powiedziałby specjalista?”. Takie ćwiczenia uczą, że algorytm może się mylić, a jego rekomendacje wymagają weryfikacji, zwłaszcza w sprawach zdrowia i relacji.

Dorośli powinni także umieć rozpoznać sygnały ostrzegawcze. Należą do nich między innymi: dziecko spędzające długie godziny dziennie na rozmowach z chatbotem, ograniczanie kontaktów z rówieśnikami, wycofywanie się z życia rodzinnego, unikanie rozmów o emocjach z rodzicami, a jednocześnie podkreślanie, że „AI rozumie mnie lepiej niż ktokolwiek inny”. W takiej sytuacji warto zareagować spokojnie, bez oskarżeń, proponując rozmowę o tym, czego młoda osoba szuka w kontakcie z AI i czego jej brakuje w relacjach z ludźmi.

Jeśli nastolatek otwarcie mówi, że chatbot jest jedyną istotą, która go „rozumie”, warto potraktować to jako sygnał alarmowy, ale też zaproszenie do dialogu. Zamiast podważać to doświadczenie, można powiedzieć: „Widzę, że to dla ciebie ważne miejsce. Chciałbym lepiej zrozumieć, w czym AI ci pomaga i co możemy zrobić, żebyś czuł podobne wsparcie także od ludzi”. W razie utrzymujących się trudności wskazane jest skonsultowanie się z psychologiem lub psychiatrą dziecięcym.

Nastolatki w świecie po smartfonie: jak ewolucja AI zmienia wychowanie i edukację

Rozmowy nastolatków z chatbotami nie są zjawiskiem oderwanym od szerszego kontekstu technologicznego. Dzisiejsze pokolenie dorasta w momencie, gdy sztuczna inteligencja wychodzi poza ramy smartfonów i laptopów, pojawiając się w nowych typach urządzeń i usług. Asystenci głosowi w głośnikach domowych, systemy rekomendacji treści, inteligentne funkcje w samochodach czy coraz bardziej autonomiczne roboty domowe – to wszystko tworzy środowisko, w którym AI staje się stałym tłem życia codziennego.

W miarę jak rozwijają się nowe urządzenia „po smartfonie”, rośnie znaczenie projektowania ich z myślą o zdrowiu psychicznym użytkowników, szczególnie najmłodszych. Więcej na temat tego, jak nowa generacja sprzętu może wbudowywać AI w nasze otoczenie, opisaliśmy w tekście „Nowa generacja sprzętu AI: co oznacza duet OpenAI i Jony Ive dla świata po smartfonie”. Im bardziej wszechobecna staje się sztuczna inteligencja, tym trudniej wyznaczyć jasną granicę między „online” i „offline”.

Dla wychowania i edukacji oznacza to konieczność głębokiej zmiany perspektywy. Zamiast traktować AI jako sporadyczny dodatek do zajęć informatyki, szkoły powinny uczyć kompetencji cyfrowych, które obejmują rozumienie działania algorytmów, ocenę wiarygodności treści generowanych przez modele językowe, a także budowanie zdrowych nawyków w kontakcie z technologią. Zajęcia z edukacji medialnej i wychowania do życia w społeczeństwie coraz częściej będą musiały obejmować tematykę dobrostanu psychicznego w erze algorytmów.

Rodzice i nauczyciele stają przed wyzwaniem nadążenia za tempem zmian. Młodzi często szybciej adaptują się do nowych narzędzi niż dorośli, co rodzi naturalną asymetrię wiedzy. To jednak dorośli ponoszą odpowiedzialność za tworzenie ram bezpieczeństwa – od domowych zasad korzystania z technologii, po polityki szkolne dotyczące używania urządzeń mobilnych i dostępu do określonych usług.

Szkoła może odgrywać szczególną rolę jako miejsce, w którym nastolatki uczą się nie tylko korzystania z AI, ale też krytycznego dystansu wobec niej. Dyskusje na lekcjach, projekty edukacyjne z wykorzystaniem chatbotów, analiza zarówno korzyści, jak i zagrożeń – wszystko to może pomóc młodym ludziom zrozumieć, że sztuczna inteligencja jest narzędziem, a nie nieomylnym autorytetem czy zastępnikiem przyjaciela.

Kto płaci za „darmową” AI i dlaczego ma to znaczenie dla dzieci korzystających z chatbotów

Pytanie o wpływ AI na młodych użytkowników nie może pomijać ekonomii i modeli biznesowych stojących za tymi technologiami. Dla nastolatków większość narzędzi wygląda na darmową: wystarczy zainstalować aplikację, założyć konto lub skorzystać z wersji przeglądarkowej. W rzeczywistości korzystanie z zaawansowanych modeli językowych jest kosztowne – wymaga ogromnej mocy obliczeniowej, zespołów inżynierów i specjalistów od bezpieczeństwa, a także stałego rozwoju infrastruktury.

Oznacza to, że „darmowość” z punktu widzenia użytkownika jest często iluzją. Narzędzia są finansowane poprzez inwestycje Big Tech, płatne wersje premium, integracje z innymi usługami, modele abonamentowe, a w niektórych przypadkach także poprzez reklamy lub monetyzację danych użytkowników. Mechanizmy te opisujemy szerzej w artykule „Mit darmowej sztucznej inteligencji: kto naprawdę płaci za erę AI”.

Zrozumienie, kto finansuje rozwój AI, pomaga inaczej spojrzeć na to, jakie zachowania platformom opłaca się wzmacniać. Jeśli przychodem jest czas spędzany w aplikacji, naturalną pokusą jest projektowanie interfejsów i funkcji, które zachęcają do jak najdłuższego korzystania. W przypadku nastolatków może to oznaczać wzmacnianie schematu, w którym chatbot staje się nie tylko narzędziem do nauki, ale także stałym towarzyszem rozmów – niezależnie od tego, czy służy to ich dobrostanowi psychicznemu.

Równocześnie gigantyczne inwestycje największych firm technologicznych wpływają na tempo i kierunek rozwoju narzędzi używanych przez młodych ludzi. Analizujemy to szerzej w tekście „Jak inwestycje Microsoftu w sztuczną inteligencję przepisują strategię Big Tech”, pokazując, że decyzje korporacji dotyczące partnerstw, przejęć i kierunków badań przekładają się bezpośrednio na to, jakie chatboty dominują na rynku i jakie funkcje stają się standardem.

Dla rodziców i nauczycieli znajomość tych uwarunkowań jest ważna z dwóch powodów. Po pierwsze, ułatwia zrozumienie, w jakim ekosystemie funkcjonują nastolatki: że ich „przyjaciel” w postaci chatbota jest jednocześnie produktem komercyjnym, którego rozwój podlega logice biznesowej. Po drugie, pozwala lepiej tłumaczyć młodym użytkownikom, że darmowe narzędzie może mieć swoje ukryte koszty – od wpływu na czas spędzany przed ekranem, po wykorzystanie danych do trenowania kolejnych modeli.

Jak odpowiedzialnie włączać AI w życie nastolatków: rekomendacje na przyszłość

Sztuczna inteligencja w wersji konwersacyjnej stała się dla części nastolatków narzędziem emocjonalnego wsparcia, mimo że nie była projektowana jako forma terapii. Zjawisko to niesie ze sobą obietnicę łatwiejszego mówienia o emocjach, dostępu do wiedzy psychoedukacyjnej i praktycznych wskazówek na co dzień. Jednocześnie wiąże się z realnymi ryzykami: możliwością uzyskania błędnych lub szkodliwych porad, pogłębianiem izolacji społecznej, złudzeniem relacji z „rozumiejącym” algorytmem oraz niejasnościami dotyczącymi prywatności.

Odpowiedzialne włączanie AI w życie nastolatków wymaga działań na kilku poziomach. W rodzinach kluczowe jest budowanie kultury otwartej rozmowy o emocjach. Jeśli młodzi ludzie mają doświadczenie, że mogą mówić o swoich lękach, wstydzie czy smutku bez ryzyka wykpienia lub lekceważenia, łatwiej potraktują AI jako pomocnicze narzędzie, a nie głównego adresata zwierzeń. Warto tworzyć codzienne okazje do rozmów – przy posiłkach, w drodze do szkoły, podczas wspólnych aktywności – w których pytanie „Jak się czujesz?” jest czymś naturalnym, a nie przesłuchaniem.

Na poziomie szkoły potrzebna jest aktualizacja programów edukacyjnych. Moduły dotyczące bezpiecznego i etycznego korzystania z AI powinny stać się standardem – obok tradycyjnej edukacji medialnej. Nauczyciele mogą wykorzystywać chatboty jako narzędzia dydaktyczne, jednocześnie ucząc krytycznego myślenia wobec generowanych treści. Lekcje wychowawcze i programy profilaktyczne dotyczące zdrowia psychicznego warto rozszerzać o elementy związane z cyfrowym dobrostanem: zarządzaniem czasem ekranowym, radzeniem sobie z presją online i świadomym korzystaniem z narzędzi AI.

Na poziomie systemowym potrzebny jest stały dialog między rodzicami, szkołami, specjalistami zdrowia psychicznego i twórcami technologii. Chodzi zarówno o tworzenie standardów projektowania narzędzi używanych przez nieletnich, jak i o jasne regulacje dotyczące prywatności, bezpieczeństwa danych oraz odpowiedzialnych praktyk biznesowych. Warto wspierać rozwój rozwiązań AI tworzonych we współpracy z ekspertami od zdrowia psychicznego, z wyraźnym oznaczeniem ich funkcji, ograniczeń oraz procedur bezpieczeństwa.

Kluczem nie jest ani bezrefleksyjna fascynacja technologią, ani jej całkowita demonizacja. Sztuczna inteligencja pozostanie częścią świata, w którym dorastają dzisiejsze nastolatki. Zadaniem dorosłych jest więc nie tyle odcięcie młodych od AI, ile świadome zarządzanie jej obecnością w ich życiu. Oznacza to stawianie granic, budowanie kompetencji, wzmacnianie relacji offline i tworzenie środowiska, w którym nastolatki mogą korzystać z nowych narzędzi w sposób wspierający, a nie zagrażający ich dobrostanowi psychicznemu.

Ostatecznie to dorośli – rodzice, nauczyciele, decydenci i projektanci technologii – ponoszą odpowiedzialność za ramy, w których młodzi ludzie spotykają się ze sztuczną inteligencją. Od jakości tych ram zależy, czy chatbot będzie jedynie cyfrowym narzędziem, czy też stanie się dla nastolatków niebezpiecznym substytutem przyjaciela.


One response to “Nastolatki, samotność i AI: kiedy chatbot zastępuje przyjaciela”

  1. Bardzo poruszył mnie wątek zastępowania relacji rówieśniczych rozmowami z chatbotem, zwłaszcza w kontekście samotności nastolatków. Z jednej strony to niesamowite, że młodzi mają dostęp do „kogoś”, kto zawsze odpowie, z drugiej – trochę przeraża wizja ćwiczenia emocji na narzędziu, które samo ich nie czuje. Zastanawiam się, czy widzisz jakieś dobre praktyki dla rodziców i szkół: jak rozmawiać z nastolatkami o korzystaniu z AI do wsparcia emocjonalnego, żeby nie demonizować technologii, ale też nie pozwolić, by całkowicie zastąpiła żywych ludzi?

Leave a Reply

Your email address will not be published. Required fields are marked *