Nowe ostrzeżenia z Harvardu: co naprawdę budzi niepokój w rozwoju sztucznej inteligencji
W ciągu zaledwie kilkunastu miesięcy narzędzia generatywnej sztucznej inteligencji – takie jak ChatGPT, Claude czy Gemini – przeszły drogę od technologicznej ciekawostki do stałego elementu codziennej pracy milionów ludzi na całym świecie. Konsultanci używają ich do przygotowywania prezentacji, prawnicy do szkicowania umów, marketerzy do pisania treści, a studenci i uczniowie – do streszczania lektur czy rozwiązywania zadań. Dla wielu użytkowników otwarcie okna z chatbotem stało się równie naturalne jak uruchomienie przeglądarki.
Ten gwałtowny wzrost popularności budzi jednak coraz więcej pytań o długoterminowe skutki dla ludzkiego myślenia. Astronom z Uniwersytetu Harvarda, profesor Avi Loeb, zwrócił ostatnio uwagę, że w swoim otoczeniu obserwuje osoby intensywnie korzystające z AI, u których – jak twierdzi – stopniowo słabną zdolności poznawcze. Porównuje to do zaniku mięśni u ludzi, którzy wszędzie jeżdżą zamiast chodzić. Jego komentarze zbiegają się w czasie z rosnącą liczbą badań nad wpływem generatywnej AI na pamięć, uwagę i kreatywność.
Nie jest to temat zarezerwowany dla badaczy sztucznej inteligencji czy inżynierów oprogramowania. Problem dotyczy każdego, kto pisze maile, raporty, prezentacje, uczy się nowych zagadnień albo rozwiązuje problemy z pomocą takich narzędzi jak ChatGPT, Claude czy Gemini. Jeśli duża część pracy umysłowej zostaje przeniesiona na model językowy, naturalnym pytaniem staje się: co na tym traci, a co zyskuje nasz własny mózg?
Celem niniejszego artykułu nie jest straszenie ani nawoływanie do odcinania się od technologii. Wręcz przeciwnie: generatywna AI może być potężnym wsparciem dla produktywności, innowacyjności i uczenia się. Warunek jest jednak kluczowy – trzeba wiedzieć, jak z niej korzystać, aby wzmacniać, a nie osłabiać swoje kompetencje poznawcze. Dlatego najpierw przyjrzymy się temu, co mówią badania i eksperci na temat zjawisk takich jak „cognitive offloading” czy „dług intelektualny”, następnie przeanalizujemy mechanizmy potencjalnego „rozleniwiania” mózgu, a w dalszej części zaproponujemy konkretne zasady higieny poznawczej w pracy z AI.
Cognitive offloading, „dług intelektualny” i inne zjawiska: co mówią badania o wpływie AI na nasz mózg
Psychologia poznawcza od lat bada, w jaki sposób delegujemy część procesów myślenia na narzędzia. To zjawisko określane jest mianem „cognitive offloading”. Ma ono wiele codziennych przykładów: GPS, który prowadzi nas ulicami miasta zamiast własnego planowania trasy; kalkulator, który wykonuje działania, zamiast liczenia w pamięci; wyszukiwarka internetowa, która zastępuje zapamiętywanie faktów. Generatywna AI jest kolejnym etapem tego procesu – tyle że dotyczy już nie tylko pojedynczych zadań, lecz całych sekwencji myślenia: wymyślania, porządkowania, argumentowania, pisania.
Badania cytowane m.in. przez profesora Loeba pokazują, że częste używanie narzędzi AI jako pierwszego odruchu może wiązać się ze spadkiem zdolności krytycznego myślenia i tak zwanego „kosztu poznawczego”. Jeden z projektów badawczych kierowanych przez Michaela Gerlicha wskazuje, że osoby, które w zadaniach problemowych szybko sięgały po pomoc AI, z czasem mniej chętnie podejmowały własny wysiłek analityczny i gorzej radziły sobie z podobnymi wyzwaniami bez wsparcia technologii.
Z tym zjawiskiem łączy się pojęcie „długu intelektualnego”. Można je porównać do znanego w programowaniu „długu technologicznego” – decyzji, które krótkoterminowo przyspieszają pracę, ale w dłuższej perspektywie ją utrudniają. W kontekście AI poleganie na gotowych odpowiedziach chatbotów pozwala szybciej kończyć zadania, lecz jednocześnie ogranicza budowanie głębokiego zrozumienia. Zespół badaczy z Microsoft Research i Carnegie Mellon University, analizując wykorzystanie generatywnej AI w firmach, zauważył, że rola człowieka często redukowała się do pobieżnej weryfikacji odpowiedzi zamiast samodzielnego rozwiązywania problemów. Taki nawyk może po latach przełożyć się na realne osłabienie kompetencji eksperckich.
Inne badania – prowadzone m.in. na MIT – sięgają głębiej, do poziomu aktywności mózgu. W eksperymentach z wykorzystaniem skanowania wykazano, że osoby tworzące tekst przy wsparciu ChatGPT wykazywały niższą aktywność w obszarach związanych z pamięcią roboczą i planowaniem niż osoby piszące samodzielnie. Uczestnicy eksperymentu gorzej zapamiętywali też treść stworzoną z pomocą AI i oceniano ich prace jako mniej kreatywne.
Warto podkreślić, że są to wnioski statystyczne, a nie wyrok na każdego użytkownika. Sama obecność AI nie „niszczy” mózgu. To sposób korzystania z narzędzi decyduje, czy wspierają one rozwój, czy prowadzą do osłabienia niektórych funkcji. Jeśli przy każdym zadaniu myślowym odruchowo wypychamy własne rozumowanie z procesu, mózg dostaje po prostu mniej treningu.
Harvardzki naukowiec bije na alarm: metafora zanikających mięśni i granice zaufania do chatbotów
Profesor Avi Loeb, znany harwardzki astrofizyk, zwrócił uwagę, że wśród intensywnych użytkowników AI obserwuje zjawisko przypominające zanik mięśni. Jego zdaniem osoby, które większość zadań poznawczych – od pisania tekstów po analizę danych – powierzają modelom językowym, z czasem coraz rzadziej samodzielnie ćwiczą umysł. Porównanie jest proste: jeśli wszędzie jeździmy, a prawie nie chodzimy, nasze mięśnie stopniowo słabną. Podobny proces może dotyczyć pamięci, koncentracji i kreatywności.
Loeb wskazuje, że w środowisku akademickim jedynym wiarygodnym sposobem sprawdzenia, czy student faktycznie opanował materiał, staje się dziś egzamin w warunkach eliminujących dostęp do urządzeń – w metaforycznej „klatce Faradaya”. Nie chodzi tylko o ryzyko ściągania, ale o to, że coraz trudniej odróżnić, gdzie kończy się praca algorytmu, a zaczyna myślenie człowieka.
Równocześnie Loeb krytykuje narrację, według której dzisiejsze systemy AI są „magicznie równe” ludzkiemu umysłowi. Podkreśla, że traktowanie chatbotów jako substytutu ludzkiej inteligencji prowadzi użytkowników do bezrefleksyjnego przyjmowania odpowiedzi jako prawdy objawionej. Tymczasem modele językowe nie rozumieją świata w ludzkim sensie, lecz generują najbardziej prawdopodobne kolejne słowa na podstawie wzorców w danych. Ich wyniki bywają imponujące, ale też podatne na błędy, halucynacje i uprzedzenia obecne w danych treningowych.
Obawy Loeba wpisują się w długą historię dyskusji o wpływie technologii na myślenie. Podobne lęki pojawiały się przy upowszechnieniu kalkulatorów, telewizji, internetu, a nawet samego pisma – już w czasach Platona. Część tych obaw okazywała się przesadzona: kalkulatory nie zniszczyły matematyki, tak jak telewizja nie wyeliminowała całkowicie czytelnictwa. Jednocześnie trudno zaprzeczyć, że technologia realnie zmienia sposób, w jaki zapamiętujemy informacje i jak kształtujemy uwagę. Dziś mało kto pamięta numery telefonów bliskich osób – bo liczymy na to, że zrobi to za nas smartfon.
W tym sensie Loeb nie nawołuje do odrzucenia AI, ale do przywrócenia właściwej hierarchii. Sztuczna inteligencja ma pozostać narzędziem pomocniczym, a nie protezą mózgu. To człowiek powinien zachować rolę podmiotu, który stawia pytania, prowadzi rozumowanie, weryfikuje odpowiedzi i podejmuje decyzje. Jeżeli tę rolę oddamy bez reszty chatbotom, ryzykujemy właśnie „zanik mięśni” intelektualnych.
Kiedy AI zaczyna nas osłabiać: sygnały ostrzegawcze w pracy, nauce i codziennych zadaniach
Nie każdy intensywny kontakt z narzędziami AI jest problemem. Istnieją jednak pewne charakterystyczne symptomy, że sposób korzystania z ChatGPT czy Claude może ograniczać samodzielne myślenie, koncentrację i kreatywność.
-
Automatyczny odruch otwierania chatbota przy każdym zadaniu. Zamiast choćby krótkiej próby samodzielnego zrozumienia problemu, pierwszym krokiem staje się sformułowanie promptu i oczekiwanie na gotową odpowiedź.
-
Trudność w napisaniu krótkiego tekstu lub maila bez wsparcia AI. Użytkownik czuje się „sparaliżowany” bez narzędzia, choć wcześniej radził sobie samodzielnie.
-
Spadek zdolności argumentowania „z głowy”. W rozmowach, spotkaniach czy negocjacjach łatwo się gubi, jeśli nie ma przed sobą podpowiedzi przygotowanych przez model.
-
Płytkie rozumienie tematów, które „przerobiła” za nas AI. Po przeczytaniu wygenerowanego podsumowania trudno odpowiedzieć na szczegółowe pytania czy samodzielnie wyjaśnić zagadnienie innym.
-
Szybka utrata uwagi przy dłuższych, wymagających tekstach, jeśli nie są one od razu skracane lub upraszczane przez narzędzie.
W pracy biurowej może to oznaczać na przykład przygotowywanie raportów niemal wyłącznie poprzez kopiowanie i lekką edycję treści wygenerowanych przez AI, bez głębszej refleksji nad liczbami i wnioskami. W marketingu – produkcję kampanii opartych na schematycznych pomysłach podpowiadanych przez model, bez własnego researchu i testów z grupą docelową. W IT – przyjmowanie sugestii kodu bez zrozumienia ich działania, co może prowadzić do narastania ukrytych błędów. W edukacji – oddawanie esejów pisanych w całości przez AI, bez faktycznego przemyślenia tematu.
W życiu codziennym symptomy są podobne: planowanie podróży sprowadzone wyłącznie do skopiowania gotowego planu wygenerowanego przez narzędzie, decyzje finansowe podejmowane na podstawie niezweryfikowanych rekomendacji chatbota, brak nawyku samodzielnego wyszukiwania i porównywania źródeł.
Warto zauważyć, że pojedyncze użycie AI w żadnym z tych scenariuszy nie jest problemem. Istotą zagrożenia jest nawyk, w którym narzędzie staje się domyślnym mózgiem użytkownika. Dobrym przykładem są programiści. Jak pokazuję szerzej w analizie How Artificial Intelligence Can Help Software Developers, AI potrafi realnie przyspieszać pracę deweloperów, automatyzować powtarzalne fragmenty kodu czy sugerować optymalizacje. Jednocześnie, jeśli programista ograniczy swoją rolę do klikania „accept suggestion”, istnieje ryzyko, że z czasem straci głębokie rozumienie architektury systemu i konsekwencji zmian.
Jak mądrze korzystać z ChatGPT i Claude: zasady higieny poznawczej dla użytkowników AI
Aby generatywna AI wzmacniała zdolności poznawcze, zamiast je osłabiać, potrzebny jest zestaw praktycznych zasad – swoista higiena poznawcza. Można potraktować je jak checklistę do codziennej pracy.
-
Najpierw własny szkic, potem AI. Zanim otworzysz chatbota, poświęć 5–10 minut na samodzielne zanotowanie pomysłów, planu, argumentów czy hipotez. AI może następnie pomóc w rozwinięciu, uporządkowaniu lub skrytykowaniu tego szkicu. Dzięki temu utrzymujesz w procesie własne myślenie, a nie zastępujesz je od razu cudzą propozycją.
-
AI jako sparring partner, nie ghostwriter. Zamiast prosić o „napisz za mnie raport”, lepiej poprosić o kontrargumenty do własnej tezy, listę pytań kontrolnych, test zrozumienia tematu czy alternatywne perspektywy. W ten sposób AI pełni funkcję krytycznego rozmówcy, który pomaga ostrzyć argumenty.
-
Wyjaśnij własnymi słowami. Po uzyskaniu odpowiedzi od AI spróbuj streścić ją samodzielnie – na piśmie lub w myślach – tak, jakbyś tłumaczył temat koledze z pracy. Jeśli nie potrafisz, oznacza to, że rozumienie jest powierzchowne i warto pogłębić temat.
-
Ogranicz automatyzację na wczesnym etapie nauki. Przy nowych zagadnieniach AI powinna przede wszystkim tłumaczyć, zadawać pytania i pomagać budować intuicję. Proś o wyjaśnienia krok po kroku, quizy czy zadania kontrolne, a nie o gotowe rozwiązania ćwiczeń czy prac zaliczeniowych.
-
Tryb głębokiej pracy bez AI. Planuj bloki czasu, w których świadomie nie korzystasz z narzędzi generatywnych. W tym czasie skupisz się na analizie, planowaniu, twórczym pisaniu czy projektowaniu – tak, aby mózg regularnie wykonywał „cięższą pracę” bez podpórek.
Te zasady można z łatwością przełożyć na konkretne scenariusze. W marketingu własny szkic strategii kampanii powstaje przed wygenerowaniem podpowiedzi sloganów czy wariantów kreacji. AI służy do generowania alternatyw i testowanych wariacji, ale ostateczna decyzja opiera się na wiedzy o marce i odbiorcach. W IT programista najpierw samodzielnie projektuje architekturę, a dopiero później korzysta z podpowiedzi kodu czy automatycznych testów. W finansach analityk wykorzystuje AI do sprawdzenia, czy nie pominął ważnych ryzyk lub scenariuszy, zamiast ślepo przyjmować „rekomendację inwestycyjną” modelu. W edukacji student przygotowuje plan pracy, główne tezy i strukturę argumentów, a następnie zleca AI rolę „recenzenta”, który wskazuje luki lub niejasności.
Podobne podejście dobrze widać na poziomie organizacji, w rozwiązaniach typu human-in-the-loop. W artykule Human‑in‑the‑Loop Chatbots w Finansach, Zdrowiu i Prawie pokazuję, jak firmy mogą bezpiecznie zautomatyzować 60–80 procent obsługi, zachowując człowieka w roli decydenta w najtrudniejszych przypadkach. Taki model idealnie ilustruje, jak również indywidualny użytkownik powinien traktować ChatGPT czy Claude: jako zaawansowanego asystenta, ale nie finalnego arbitra.
W życiu prywatnym podobne reguły można zastosować przy planowaniu budżetu domowego czy większych wydatków. AI może pomóc policzyć różne scenariusze, porównać oferty czy zwrócić uwagę na ukryte koszty, ale to użytkownik powinien świadomie zdecydować, jakie ryzyko jest dla niego akceptowalne i które priorytety są ważniejsze.
AI jako dopalacz kreatywności i nauki, a nie proteza mózgu: scenariusze użycia z różnych branż
Wbrew pesymistycznym wizjom, generatywna AI może stać się jednym z najpotężniejszych narzędzi wzmacniających kreatywność i uczenie się. Warunkiem jest używanie jej w sposób, który zachęca do myślenia, a nie zastępuje je.
Dla specjalistów IT AI może pełnić rolę partnera w projektowaniu rozwiązań, a nie tylko generatora kodu. Zamiast kopiować gotowe fragmenty, deweloper może poprosić model o zaproponowanie kilku alternatywnych architektur, wskazanie kompromisów między wydajnością a czytelnością czy zasymulowanie możliwych błędów. AI nadaje się również świetnie do przeprowadzania wstępnych code review – wychwytywania nieoczywistych edge case’ów czy problemów z bezpieczeństwem, które programista następnie analizuje i poprawia.
Dobrym przykładem potencjału tych rozwiązań są wyspecjalizowane narzędzia dla programistów. W tekście Claude Code od Anthropic: jak poboczny projekt urósł do miliardowego biznesu narzędzi AI dla programistów opisuję, jak dedykowane asystenty potrafią znacząco przyspieszyć pracę nad dużymi bazami kodu, wyszukiwaniem regresji czy refaktoryzacją. Kluczem do sukcesu pozostaje jednak sposób korzystania: najlepsze rezultaty osiągają ci deweloperzy, którzy używają AI do eksploracji rozwiązań i automatyzacji rutyny, zachowując pełną kontrolę nad projektem i świadomie przeglądając każdą zmianę.
Menedżerowie i analitycy mogą wykorzystywać AI jako narzędzie do myślenia krytycznego. Zamiast prosić o „idealny plan”, można potraktować model jako „adwokata diabła”: poprosić o listę argumentów przeciwko własnej koncepcji, o potencjalne ryzyka, o pytania, na które zespół nie odpowiedział. Taki sposób pracy zmusza do konfrontacji z nieoczywistymi konsekwencjami decyzji i uczy lepszego przygotowania do spotkań czy negocjacji.
Dla studentów i uczniów AI może być prywatnym tutorem. Tworzenie spersonalizowanych quizów, proszenie o wyjaśnienie trudnych pojęć na różnym poziomie szczegółowości, ćwiczenie umiejętności rozwiązywania zadań krok po kroku – wszystko to pomaga utrwalić materiał. Warunek jest jeden: praca musi polegać na aktywnym uczestnictwie, odpowiadaniu na pytania, próbach własnych rozwiązań, a nie na biernym kopiowaniu gotowych esejów.
Twórcy treści – dziennikarze, copywriterzy, autorzy podcastów – mogą z kolei korzystać z AI do burzy mózgów. Zamiast powierzać jej stworzenie gotowego artykułu, można prosić o listę nietypowych kątów spojrzenia na temat, potencjalne pytania do ekspertów, przykłady z innych branż czy metafory, które pomogą wyjaśnić skomplikowane zagadnienia. AI staje się wówczas katalizatorem pomysłów, a nie maszyną do produkcji uśrednionego tekstu.
W każdym z tych scenariuszy rola użytkownika jest kluczowa. To on formułuje trafne pytania, wybiera najbardziej obiecujące tropy, weryfikuje odpowiedzi i podejmuje decyzje. Jeżeli ta odpowiedzialność zostaje zachowana, generatywna AI rzeczywiście może działać jak „dopalacz” kreatywności i nauki, a nie proteza mózgu.
Co dalej z naszym myśleniem w epoce generatywnej AI: rekomendacje dla osób, firm i edukacji
Doświadczenia ostatnich lat, badania nad cognitive offloading i ostrzeżenia ekspertów takich jak Avi Loeb prowadzą do kilku podstawowych wniosków. Po pierwsze, sama obecność narzędzi AI nie jest ani dobra, ani zła dla naszego mózgu – decyduje sposób użycia. Po drugie, realne ryzyko polega na stopniowym wypychaniu wysiłku poznawczego z codziennych zadań i zastępowaniu go automatycznymi podpowiedziami, co może prowadzić do „zaniku mięśni” intelektualnych. Po trzecie, istnieją proste zasady higieny poznawczej, które pozwalają przekształcić AI w narzędzie treningu myślenia, koncentracji i kreatywności.
Z perspektywy jednostki warto wdrożyć regularny „trening bez AI”: świadome bloki pracy i nauki, w których rezygnujemy z generatywnych narzędzi, aby ćwiczyć pamięć, argumentację i planowanie. Istotne jest też projektowanie własnych rytuałów pracy z AI – najpierw szkic, potem wsparcie; AI jako krytyczny partner, a nie ghostwriter; systematyczne wyjaśnianie sobie otrzymanych odpowiedzi własnymi słowami.
Firmy powinny wypracować polityki korzystania z AI, które nie ograniczają się do regulacji bezpieczeństwa danych, ale odnoszą się również do rozwoju kompetencji pracowników. Warto promować model, w którym automatyzacja nie zastępuje zrozumienia, lecz je wspiera: AI przejmuje rutynę, a człowiek koncentruje się na zadaniach wymagających interpretacji, wyboru i odpowiedzialności. W obszarach takich jak obsługa klienta, analiza dokumentów czy wsparcie wewnętrznych procesów doskonałym punktem odniesienia są rozwiązania human-in-the-loop – opisane szerzej we wspomnianym tekście o chatbotach w finansach, zdrowiu i prawie – gdzie człowiek pozostaje ostatecznym decydentem, a AI pełni rolę zaawansowanego filtra i asystenta.
Dla sektora edukacji kluczowe staje się rozróżnienie między użyciem AI jako „coacha” a „ghostwritera”. Uczniowie i studenci powinni być zachęcani do wykorzystywania narzędzi jako tutorów zadających pytania, tłumaczących pojęcia na różnym poziomie trudności, pomagających ćwiczyć umiejętność argumentowania. Równocześnie ocena kompetencji musi uwzględniać momenty, w których uczeń samodzielnie formułuje odpowiedzi – tak, aby nauczyciele mogli stwierdzić, na ile faktycznie opanował materiał.
W kolejnych tekstach na blogu będę przyglądał się bardziej szczegółowo temu, jak wdrażać generatywną AI w konkretnych procesach biznesowych – od obsługi klienta po analitykę danych – w duchu bezpiecznej automatyzacji i modelu human-in-the-loop. Już dziś jednak warto potraktować ostrzeżenia ekspertów jako okazję do autorefleksji.
Dobrym pierwszym krokiem może być tygodniowy eksperyment. Przez najbliższe dni obserwuj uważnie swój sposób korzystania z AI: w jakich sytuacjach sięgasz po nią odruchowo, czy próbujesz najpierw samodzielnie zrozumieć problem, czy potrafisz wyjaśnić innym to, co „załatwił” za ciebie chatbot. Zanotuj momenty, w których oddajesz za dużo myślenia narzędziu, i stopniowo odzyskuj kontrolę nad procesem poznawczym. Claude, ChatGPT czy inne modele mogą być niezwykle wartościowymi partnerami – pod warunkiem, że nie pozwolisz im stać się substytutem własnego umysłu.

