„Mnie to nie dotyczy”. Nierealistyczny optymizm Polaków wobec AI i zwolnień

„Mnie to nie dotyczy”. Nierealistyczny optymizm Polaków wobec AI i zwolnień

Polacy boją się AI, ale „ja akurat jestem bezpieczny” – co mówią dane?

Typowy polski open space. Przy jednym biurku rozmowa o kolejnych zwolnieniach „w centrali”. Przy drugim ktoś narzeka na składki i PPK. W kuchni trwa mini-szkolenie z „nowego narzędzia AI, które ma nam ułatwić pracę”. A pod tym wszystkim unosi się wspólna, cicha myśl: „u mnie i tak będzie okej”.

Problem w tym, że dane coraz mocniej pokazują coś odwrotnego. Zespół z Uniwersytetu SWPS przepytał ponad tysiąc dorosłych Polek i Polaków o to, jak widzą ryzyko związane z wpływem sztucznej inteligencji na pracę. Wnioski? Wiemy, że AI może zamieszać na rynku pracy, ale najchętniej przypisujemy to ryzyko „przeciętnej osobie na świecie”. Sobie i swoim bliskim – już dużo mniej.

Im dalej od naszego życia, tym chętniej przyznajemy, że jest niebezpiecznie. „Przeciętny obywatel kraju” ma gorzej niż my, a „przeciętna osoba na świecie” – to już w ogóle dramat. My? Spokojnie, przecież menedżer mówił, że nasz dział jest przyszłościowy.

Psychologowie nazywają to nierealistycznym optymizmem. To skłonność do myślenia, że złe rzeczy bardziej spotykają innych niż nas. Stare zjawisko, znane z badań o wypadkach drogowych, chorobach czy rozwodach, bardzo ładnie przeniosło się na nowy temat: automatyzację i sztuczną inteligencję.

W badaniu SWPS ten wzorzec praktycznie nie znikał. Niezależnie od wieku, wykształcenia, wielkości miejscowości czy sytuacji zawodowej – wszędzie widać było to samo odsuwanie ryzyka od siebie. Jedyna wyraźna różnica: kobiety deklarowały wyższy poziom obaw niż mężczyźni, ale mechanizm „inni są bardziej zagrożeni niż ja” działał u obu płci podobnie.

Dr Paweł Muniak z Uniwersytetu SWPS zwraca uwagę, że brak poczucia osobistego zagrożenia nie jest niewinną iluzją. To realna blokada. Jeśli wierzymy, że „jakoś to będzie”, trudniej zmobilizować się do nauki, rozwoju, ogarniania nowych narzędzi i faktycznej adaptacji do zmian wywołanych przez AI. To trochę zimny prysznic dla wielu polskich pracowników biurowych.

Do tego dochodzą twarde liczby. Z raportu Ministerstwa Cyfryzacji i NASK wynika, że wpływ generatywnej sztucznej inteligencji może dotknąć nawet około 30 proc. aktywnych zawodowo Polaków, co przekłada się na ponad 5 milionów miejsc pracy. Liczby są bezlitosne, a nasze myślenie – bardzo miękkie.

W kolejnych częściach przejdę do konkretów: co dzieje się w głowach, co w polskich firmach i jak każdy może uczciwie sprawdzić, czy faktycznie jest „bezpieczny”, czy tylko tak mu się wydaje. Bez moralizowania, ale też bez kołderki z „jakoś to będzie”. Bo stawka jest wysoka dla każdego, kto pracuje dziś w biurze, usługach, IT, marketingu, finansach albo właśnie kombinuje nad przebranżowieniem.

Dlaczego wciąż wierzymy, że zwolnienia i AI ominą właśnie nas

Scenka z życia. Kolejka do automatu z kawą. Ktoś rzuca: „Słyszeliście, że w centrali znowu tną etaty?”. Ktoś inny odpowiada bez mrugnięcia okiem: „Spokojnie, nasz dział jest strategiczny”. Trzecia osoba dorzuca: „AI i tak sobie z naszymi klientami nie poradzi, za dużo tu niuansów”. Wszyscy wracają do biurek. Puls się uspokaja, iluzja wraca na swoje miejsce.

To dokładnie tak działa. Mamy przed oczami bardzo realne przykłady zmian: redukcje, zamrożone rekrutacje, dziwnie ciche projekty. A mimo to uruchamia się cały zestaw mechanizmów psychologicznych.

Po pierwsze, nierealistyczny optymizm. Jeśli ktoś ma wpaść w kłopoty, to raczej „oni”: jacyś bliżej nieokreśleni pracownicy magazynów, call center, „ludzie bez kwalifikacji”. My jesteśmy rozsądni, ogarnięci, doceniani. Znamy szefa, znamy zespół. To daje przyjemne poczucie kontroli – nawet jeśli jest ono w dużej mierze wymyślone.

Po drugie, efekt wyjątkowości. Lubimy wierzyć, że nasza praca jest bardziej złożona i zbyt „specyficzna”, żeby dało się ją zautomatyzować. Słyszę to non stop: specjalista ds. obsługi klienta, który przekonuje, że jego maile są zbyt subtelne na maszynę; księgowa, która „zna wszystkie smaczki” konkretnych kontrahentów; analityk, który uważa, że jego raportów „nie da się” wygenerować automatycznie.

Po trzecie, selektywne myślenie. Docierają do nas historie o zwolnieniach w innych firmach, ale w głowie od razu pojawia się dopisek: „pewnie mieli gorszych ludzi”, „u nas menedżerowie są mądrzejsi”, „myślą długofalowo”. Budujemy narrację, w której wciąż jesteśmy po bezpiecznej stronie.

Badanie SWPS dobrze pokazuje, że to nie jest przypadłość „naiwnych”. Ten sam schemat pojawia się u dobrze wykształconych specjalistów, menedżerów, ludzi z dużych miast. To ludzkie ustawienie fabryczne, nie defekt wybranej grupy.

W tle działa jeszcze coś: AI przestaje być abstraktem. Generatywne modele wchodzą frontem do wielu biur. W marketingu potrafią już podsuwać pierwsze wersje tekstów. W analizie danych robią szybkie podsumowania i wizualizacje. W customer service generują szkice odpowiedzi do klientów. W osobnym tekście o otwartoźródłowym modelu HuggingChat jako alternatywie dla ChatGPT pokazywałem, że nie ma jednego „świętego” narzędzia – cały ekosystem puchnie z miesiąca na miesiąc.

Do tego dochodzi nowa generacja modeli o zupełnie innych możliwościach. W artykule o Claude Sonnet 4.6 i oknie 1M tokenów opisywałem, jak firmy zaczynają wrzucać do modelu całe procedury, bazy wiedzy i dokumentacje projektów. To przestaje być gadżet, a zaczyna być narzędzie, które faktycznie może zmieniać zapotrzebowanie na ludzi.

W tym kontekście „mnie to nie dotyczy” jest bardzo kuszącą strategią. Oszczędza nerwy. Nie trzeba robić kursu, nie trzeba męczyć się z nowym narzędziem, nie trzeba śledzić, co dzieje się w branży. Wszystko jest tak, jak było. Przynajmniej do dnia, w którym przychodzi mail z HR z bardzo formalnym załącznikiem.

Co już dziś dzieje się w polskich firmach: od cięć etatów po nowe role obok AI

Jeśli pracujesz w typowej polskiej firmie usługowej, prawdopodobnie już widzisz pierwsze zmiany. W dziale obsługi klienta pojawił się system, który podpowiada odpowiedzi do powtarzalnych zgłoszeń. W księgowości nowy moduł sam wstępnie kategoryzuje faktury. W marketingu powstają szkice tekstów i grafik, które ktoś później poprawia. W IT kolejny raz słyszysz o „asystencie programisty”, który generuje fragmenty kodu.

To nie jest science fiction. To codzienność bardzo wielu polskich biur.

Równolegle widać ostrożne, ale rosnące deklaracje firm, że część redukcji zatrudnienia wiąże się z automatyzacją. W badaniach rynku pracy pojawiają się wątki: tu firma ogranicza zatrudnienie w back office, tam otwarcie mówi o zastępowaniu prostych zadań systemami. Część tych samych przedsiębiorstw jednocześnie rekrutuje do ról związanych z danymi, wdrażaniem narzędzi AI albo analizą procesów.

W wielu polskich organizacjach scenariusze są bardzo podobne. W back office zakres obowiązków przesuwa się tam, gdzie maszyny na razie nie radzą sobie najlepiej: kontakt z klientem, rozumienie kontekstu, ogarnianie wyjątków. Ludzie przerzucani są z zadań powtarzalnych do tych bardziej „klienckich” albo analitycznych. Nie wszyscy są z tego zachwyceni, bo to oznacza więcej stresu i konieczność uczenia się nowych rzeczy.

W marketingu i contentcie rośnie presja na „produkcję” przy wsparciu AI. Jednocześnie widać coraz większą potrzebę osób, które potrafią mądrze zadawać pytania modelom, wybierać sensowne wyniki i brać współodpowiedzialność za efekt. To już nie jest tylko kwestia kreatywności, ale też umiejętności pracy z narzędziami.

W IT część programistów spędza mniej czasu na pisaniu kodu od zera, a więcej na nadzorowaniu, weryfikowaniu i integrowaniu rozwiązań AI z istniejącą infrastrukturą. Zmienia się profil tej pracy, nawet jeśli same stanowiska na LinkedInie jeszcze wyglądają podobnie.

Jednocześnie warto pamiętać o drugim biegunie. AI bywa zawodna i potrafi strzelić spektakularnego babola. W tekście o dziennikarzu BBC, który w 20 minut obnażył słabości ChatGPT i Google AI Overview, pokazywałem, jak szybko da się wyciągnąć na wierzch błędy tych systemów. Bezkrytyczne zaufanie do AI jest równie naiwne jak myśl „mnie to nie dotyczy”. Maszyny potrzebują nadzoru, ludzi z krytycznym myśleniem i umiejętnością weryfikacji.

Zabawny kontrast widzę przy planowaniu pracy zdalnej z innego kraju. Znam osoby, które przed wyjazdem potrafią godzinami sprawdzać koszty życia, ceny hoteli i warunki na miejscu w serwisach pokroju HikersBay, żeby dokładnie policzyć budżet. A jednocześnie o swojej przyszłości zawodowej myślą w trybie „jakoś to będzie”. Do podróży potrafimy przygotować się bardzo konkretnie, do zmian na rynku pracy – dużo rzadziej.

Fakty są takie: w polskich firmach już dziś tworzy się nowe role związane z AI, zwija się niektóre zespoły, których zadania da się zautomatyzować, a na pozostałych rośnie presja na wielozadaniowość i ciągłe przesuwanie zakresu obowiązków. Kto udaje, że tego nie widzi, gra w grę z dość oczywistym finałem.

Jak realnie sprawdzić, czy twoja praca jest bezpieczna i co zrobić, zanim będzie za późno

Jeśli wciąż liczysz, że twoje stanowisko jest zbyt specyficzne, by ktoś je ruszył, to mam dla ciebie kilka niewygodnych pytań.

Po pierwsze: ile twojego czasu w pracy zajmują powtarzalne czynności, które da się opisać w prostych krokach? Wpisywanie danych, przepinanie informacji między systemami, przygotowywanie podobnych raportów czy maili. To są dokładnie te obszary, w które automatyzacja celuje w pierwszej kolejności.

Po drugie: kto w twojej firmie już dziś korzysta z AI lub automatyzacji, a ty jeszcze nie? Jeśli w zespole jest ktoś, kto od dawna ma swoje makra, skrypty, promptuje modele i buduje małe automaty, to właśnie tam przesuwa się granica tego, co jest „must have”, a co „opcją”.

Po trzecie: czy w ogłoszeniach o pracę w twojej branży zaczęły pojawiać się hasła o znajomości narzędzi AI, automatyzacji, analizy danych – a ty tych rzeczy po prostu nie umiesz? Jeśli tak, to sygnał ostrzegawczy, że za chwilę twoja obecna wersja kompetencji może być „tą starą”.

Kolejne pytanie: jak zmieniało się zatrudnienie w twojej firmie przez ostatnie dwa–trzy lata? Pojawiły się pierwsze historie o zastępowaniu zespołów narzędziami? A może cichych odejść jest nagle więcej, a ogłoszeń mniej? To nie zawsze będzie czarno-biały obraz, ale warto przynajmniej próbować go zobaczyć.

Pamiętam moment, kiedy sam zorientowałem się, że część mojej pracy da się zrobić szybciej, niż bym chciał. Wrzuciłem duży research i notatki z wywiadów do modelu językowego, żeby tylko „pousadzać” sobie strukturę tekstu. Po kilku minutach dostałem szkic, który spokojnie mógłby być pierwszą wersją artykułu. Nie był idealny, ale uderzyło mnie, jak wiele z tego, co uważałem za „swoją robotę”, można przynajmniej częściowo przesunąć na maszynę. Od tamtej pory uczę się narzędzi nie z ciekawości, tylko z czystego instynktu samozachowawczego.

Co można zrobić od razu, bez doktoratu z data science? Na początek wybrać jedno narzędzie AI i przez miesiąc używać go do konkretnej części pracy: researchu, podsumowań spotkań, draftów maili, segmentacji danych. Sprawdzić, co realnie przyspiesza, a co jest tylko zabawką. Jeśli chcesz wejść poziom wyżej, mogą się przydać też teksty o bardziej zaawansowanych modelach, jak wspomniane wcześniej wpisy o HuggingChat czy Claude – pokazują, że „AI w pracy” to nie tylko podpowiadanie tekstu w komunikatorze.

Kolejny krok to uczciwy audyt swojego CV. Czy opisujesz w nim głównie rzeczy, które w najbliższych latach przejmą narzędzia? Czy raczej to, co opiera się na relacjach, rozumieniu sytuacji, podejmowaniu decyzji pod presją, odpowiedzialności za całość procesu? Jeden wieczór z kartką papieru potrafi tutaj zdziałać więcej niż kolejny kurs „komunikacji w zespole”.

Dobrym ruchem jest też rozmowa z kimś z innej firmy albo branży, kto już pracuje blisko AI. Nie o „wizjach przyszłości”, tylko o tym, co mu realnie zniknęło z kalendarza, co się pojawiło, czego musiał się douczyć, żeby nie wypaść z obiegu. Jeden konkretny przykład często bardziej otwiera oczy niż raport z grubą liczbą wykresów.

Jeśli od dawna myślisz o przebranżowieniu – z administracji na analitykę, z obsługi klienta na UX, z marketingu na product – to najgorszym momentem na skok jest dzień po wręczeniu wypowiedzenia. O wiele sensowniej jest zacząć testować nowe ścieżki wcześniej: krótkie kursy, małe projekty poboczne, wolontariaty, cokolwiek, co pozwala zobaczyć od środka inną pracę. Znajomość narzędzi AI w nowej branży może być wtedy przewagą świeżaka, a nie tylko kolejnym punktem do odhaczania.

Na końcu zostaje jedna nieprzyjemna prawda: „mnie to nie dotyczy” jest ludzkie i zrozumiałe, ale rynek pracy nie bierze udziału w naszych wewnętrznych opowieściach. Lepiej trochę się przestraszyć dziś i zrobić pierwszy krok, niż obudzić się dopiero na spotkaniu z HR, na którym pada słowo „restrukturyzacja”.


One response to “„Mnie to nie dotyczy”. Nierealistyczny optymizm Polaków wobec AI i zwolnień”

  1. Bardzo ciekawie opisujesz ten rozdźwięk między ogólnym lękiem a przekonaniem „mnie to nie dotyczy”. Mam wrażenie, że wiele osób traktuje AI trochę jak kolejną modę w narzędziach biurowych, a nie realną zmianę modelu pracy, która za chwilę ich dosięgnie. Zastanawiam się, na ile ten nierealistyczny optymizm wynika z braku wiedzy, a na ile z mechanizmu obronnego – „jak o tym głębiej nie pomyślę, to będzie mniej straszne”. Jak Twoim zdaniem można w Polsce sensownie komunikować ryzyka związane z AI, tak żeby nie siać paniki, ale też wyrwać ludzi z tej wygodnej iluzji bezpieczeństwa?

Leave a Reply

Your email address will not be published. Required fields are marked *