Claude a rynek pracy: jak narzędzie Anthropic zmienia ocenę ryzyka automatyzacji zawodów

Claude a rynek pracy: jak narzędzie Anthropic zmienia ocenę ryzyka automatyzacji zawodów

Dlaczego potrzebujemy nowych narzędzi do oceny ryzyka automatyzacji pracy przez AI

W ciągu zaledwie kilku lat generatywna sztuczna inteligencja przeszła drogę od eksperymentalnych modeli do powszechnie dostępnych usług, z których korzystają miliony użytkowników i coraz więcej firm. Systemy takie jak Claude, ChatGPT czy Gemini potrafią już nie tylko odpowiadać na proste pytania, lecz także pisać teksty, analizować dane, generować kod, przygotowywać prezentacje czy wspierać procesy obsługi klienta. To jakościowa zmiana w porównaniu z wcześniejszą falą automatyzacji, opartą głównie na robotach przemysłowych i prostych algorytmach regułowych.

Dotychczasowe analizy wpływu technologii na zatrudnienie, popularne szczególnie w poprzedniej dekadzie, koncentrowały się przede wszystkim na ryzyku automatyzacji pracy fizycznej i powtarzalnych czynnościach biurowych. Zakładano, że automatyzacja będzie stopniowo wypierać głównie zawody o niższych kwalifikacjach, a sektor usług opartych na wiedzy pozostanie relatywnie bezpieczny. Rozwój dużych modeli językowych podważył te założenia: dziś to właśnie zadania kognitywne i językowe stają się w pierwszej kolejności podatne na automatyzację.

Równolegle rosną obawy społeczne dotyczące „końca pracy”, a nagłówki o masowych zwolnieniach wywołanych przez AI pojawiają się coraz częściej. Tymczasem z perspektywy zarządów, działów HR i instytucji publicznych kluczowe jest nie to, czy AI „zabierze pracę ludziom” w ogóle, lecz które konkretne zadania i procesy mogą zostać zautomatyzowane, gdzie AI będzie przede wszystkim wsparciem, oraz jak przełożyć to na strategie zatrudnienia, szkoleń i regulacji rynku pracy.

Potrzebne są więc narzędzia, które pozwolą przejść od emocjonalnych debat i uproszczonych prognoz do opartych na danych ocen ryzyka na poziomie zawodów i – co jeszcze ważniejsze – pojedynczych czynności składających się na daną rolę. W tym właśnie miejscu pojawia się nowe narzędzie stworzone przez Anthropic, firmę odpowiedzialną za rozwój modelu Claude. Jest to system zaprojektowany nie po to, aby tworzyć „listę zawodów skazanych na zniknięcie”, lecz aby umożliwić systematyczne monitorowanie ryzyka wyparcia ludzi z konkretnych obszarów pracy przez AI oraz identyfikację obszarów wysokiego potencjału wzrostu produktywności.

Rozwój takich narzędzi wpisuje się w szerszą dynamikę inwestycji w generatywną sztuczną inteligencję. Kapitał płynący do firm tworzących modele i infrastrukturę AI – opisywany szerzej m.in. w analizie o finansowaniu wyścigu AI i nowej mapie kapitału – coraz częściej kierowany jest także na narzędzia oceniające wpływ tych technologii na gospodarkę i rynek pracy. To sygnał, że rynek zaczyna dostrzegać, iż odpowiedzialne wdrażanie AI wymaga nie tylko modeli generatywnych, ale również wyspecjalizowanych instrumentów analitycznych.

Stawką w tej transformacji nie jest jedynie liczba etatów w poszczególnych sektorach. Chodzi o to, czy AI będzie wykorzystywana przede wszystkim do zastępowania ludzi na dużą skalę, czy raczej do wzmacniania ich kompetencji i zwiększania produktywności. Odpowiedź na to pytanie zależy w dużej mierze od tego, jak precyzyjnie umiemy zidentyfikować obszary realnego ryzyka oraz szans rozwojowych.

Jak działa model Anthropic do monitorowania ryzyka zastępowania pracowników przez AI

Narzędzie stworzone przez Anthropic można opisać jako analityczny model oparty na Claude, który ocenia podatność zadań zawodowych na automatyzację przez sztuczną inteligencję. Jego działanie polega na systematycznej analizie opisów zadań wykonywanych na danym stanowisku oraz porównaniu ich z aktualnymi możliwościami modeli językowych i powiązanych systemów AI.

Kluczowa jest tutaj jednostka analizy: nie całe stanowisko, lecz poszczególne zadania, z których składa się dana rola. W praktyce oznacza to, że zamiast odpowiadać na pytanie, czy „księgowy” lub „specjalista ds. HR” mogą zostać zastąpieni przez AI, narzędzie ocenia, które elementy ich pracy – na przykład przygotowanie raportu, wstępna selekcja dokumentów czy tworzenie standardowych odpowiedzi – mogą zostać w dużym stopniu zautomatyzowane, a które wymagają nadal człowieka.

Model, korzystając z opisów zadań, klasyfikuje poziom ryzyka automatyzacji (np. niskie, średnie, wysokie) oraz szacuje potencjał wzrostu produktywności, jaki może przynieść zastosowanie AI jako narzędzia wspierającego. W ocenie bierze pod uwagę kilka grup czynników, które są stosunkowo intuicyjne także dla osób spoza branży technologicznej.

  • Stopień rutynowości zadań – czynności oparte na powtarzalnych procedurach, jasno zdefiniowanych wejściach i wyjściach (np. przenoszenie danych z dokumentu do systemu, generowanie standardowych pism) są znacznie bardziej podatne na automatyzację niż zadania wymagające elastycznego myślenia czy oceny kontekstu.
  • Konieczność bezpośredniego kontaktu z ludźmi – prace, w których kluczowe są relacje międzyludzkie, budowanie zaufania, negocjacje czy empatia, trudniej jest w pełni powierzyć systemom AI, nawet jeśli część działań przygotowawczych można zautomatyzować.
  • Wymóg kreatywności – w zadaniach, gdzie istotna jest oryginalna koncepcja, rozumienie niuansów kulturowych czy strategiczne myślenie, AI pełni raczej funkcję inspiracji i wsparcia, niż pełnego zamiennika człowieka.
  • Odpowiedzialność prawna i etyczna – procesy, w których decyzje niosą za sobą poważne konsekwencje prawne lub etyczne (np. decyzje medyczne, kredytowe czy kadrowe), z definicji wymagają nadzoru człowieka, nawet jeśli część analiz pomocniczych może wykonać AI.
  • Charakter pracy: fizyczna vs. cyfrowa – czynności wykonywane wyłącznie w środowisku cyfrowym, na dokumentach, danych i treściach, są łatwiejsze do zautomatyzowania przy użyciu generatywnej AI niż prace wymagające obecności w terenie czy bezpośredniego działania na świecie fizycznym.

Przedstawiciele Anthropic podkreślają w wypowiedziach publicznych, że celem rozwoju tego typu modeli jest wsparcie planowania transformacji pracy – zarówno na poziomie firm, jak i polityk publicznych – a nie stworzenie prostego rankingu zawodów do zwolnienia. Narzędzie ma służyć identyfikowaniu, gdzie warto inwestować w automatyzację, gdzie w szkolenia i przebudowę ról, a gdzie konieczne jest wzmocnienie odpowiedzialności ludzkiej.

Warto zaznaczyć, że model ma charakter eksperymentalny i odzwierciedla aktualne możliwości modeli językowych. Ryzyko automatyzacji nie jest więc wartością stałą; będzie zmieniać się w czasie wraz z rozwojem technologii, zmianami regulacyjnymi i praktykami biznesowymi. Z tego powodu narzędzie powinno być traktowane jako dynamiczny wskaźnik, wymagający regularnej aktualizacji i krytycznej interpretacji, a nie jako ostateczna prognoza.

Które branże według pierwszych danych są najbardziej narażone na automatyzację przez AI

Wstępne analizy oparte na modelu Anthropic potwierdzają w dużej mierze intuicje ekonomistów i praktyków rynku pracy: najwyższe ryzyko automatyzacji dotyczy zadań silnie rutynowych, opartych na przetwarzaniu tekstu, danych oraz stosowaniu standardowych procedur. Istotne jest jednak to, że mówimy przede wszystkim o automatyzacji określonych czynności, a nie o jednoznacznym znikaniu całych zawodów.

W grupie podwyższonego ryzyka znajdują się między innymi:

  • wybrane zadania w obsłudze klienta online, szczególnie tam, gdzie dominują powtarzalne pytania i schematy odpowiedzi,
  • proste role back-office, takie jak wprowadzanie danych, wstępne sprawdzanie dokumentów czy przygotowywanie standardowych raportów,
  • niektóre funkcje administracyjne oparte na uzupełnianiu formularzy i generowaniu typowych pism,
  • tworzenie podstawowych treści, na przykład prostych opisów produktów czy standardowych komunikatów informacyjnych.

Model wskazuje, że zadania takie jak generowanie okresowych raportów, przygotowywanie wstępnych odpowiedzi na wiadomości e-mail, czy tworzenie prostych podsumowań danych są szczególnie podatne na przejęcie przez systemy AI. Nie oznacza to, że zawód specjalisty ds. obsługi klienta, pracownika biura czy księgowego zniknie, ale że struktura ich pracy może się istotnie zmienić: mniej czasu na powtarzalne czynności, więcej na rozwiązywanie nietypowych problemów, budowanie relacji z klientem czy interpretację wyników.

W sektorach, w których przewaga konkurencyjna opiera się głównie na szybkości i skali przetwarzania informacji, presja na automatyzację będzie szczególnie silna. Dotyczy to m.in. centrów usług wspólnych, firm BPO, prostszych usług finansowo-księgowych, części funkcji administracji publicznej czy masowej produkcji treści. W takich środowiskach już dziś widać pilotaże, w których AI przejmuje znaczną część zadań „pierwszej linii”.

Istotną rolę odgrywają różnice między gospodarkami rozwiniętymi a wschodzącymi. W krajach o wyższych kosztach pracy, takich jak Niemcy czy państwa nordyckie, bodźce ekonomiczne do szybkiego wdrażania automatyzacji są silniejsze niż w gospodarkach, gdzie praca jest relatywnie tańsza. Polska znajduje się pośrodku: z jednej strony mamy wciąż konkurencyjne koszty pracy w porównaniu z Europą Zachodnią, z drugiej – coraz większą presję na wzrost wynagrodzeń i poprawę produktywności. To może sprawić, że firmy działające w Polsce będą szczególnie zainteresowane wykorzystaniem AI do automatyzacji wybranych procesów biurowych i usługowych.

Ważne jest jednak zachowanie ostrożnego języka i unikanie katastroficznych scenariuszy. Dane z modelu Anthropic pokazują raczej kierunek ryzyka niż nieuchronny los konkretnych grup zawodowych. W praktyce wpływ automatyzacji będzie zależeć od wielu czynników: strategii firm, polityk państwa, siły negocjacyjnej pracowników oraz tempa upowszechniania się nowych technologii. Równie istotne jak identyfikacja zagrożeń jest wskazywanie obszarów, w których AI może przede wszystkim wzmocnić pozycję pracowników.

Gdzie AI przede wszystkim zwiększy produktywność zamiast zastępować ludzi

Druga strona obrazu to zawody i sektory, w których generatywna AI, w tym Claude, pełni przede wszystkim rolę „kopilota” – narzędzia wspierającego, a nie zamieniającego człowieka. Dotyczy to szczególnie tych obszarów, gdzie kluczowe są relacje międzyludzkie, złożona odpowiedzialność, praca w terenie lub wysoka kreatywność.

W ochronie zdrowia lekarze i pielęgniarki mogą wykorzystywać AI do szybkiego streszczania dokumentacji medycznej, proponowania listy możliwych rozpoznań do dalszej analizy czy generowania projektów zaleceń dla pacjentów. Ostateczna decyzja diagnostyczna czy terapeutyczna pozostaje jednak po stronie człowieka, a bezpośredni kontakt z pacjentem jest nie do zastąpienia. Podobnie w edukacji – nauczyciele mogą korzystać z systemów takich jak Claude do tworzenia materiałów dydaktycznych, testów czy scenariuszy zajęć, ale rola pedagoga jako przewodnika, mentora i osoby budującej relacje z uczniami pozostaje fundamentalna.

W obszarze HR narzędzia AI już dziś wspierają rekruterów w analizie CV, wstępnym dopasowaniu kandydatów czy przygotowywaniu opisów stanowisk. Przykładowy scenariusz to rekruter, który korzysta z modelu językowego do uporządkowania dużej liczby zgłoszeń, wygenerowania listy pytań na rozmowę, a następnie – po spotkaniu – do przygotowania podsumowania rozmowy. W tym układzie AI odciąża z czynności czasochłonnych, a specjalista HR może skupić się na rozmowie z kandydatem, ocenie motywacji czy dopasowaniu do kultury organizacyjnej.

Analogiczne zastosowania pojawiają się w administracji i sektorze publicznym. Urzędnik może korzystać z AI do porządkowania dokumentów, wyszukiwania powiązanych spraw, czy tworzenia wstępnych projektów pism, które następnie sam weryfikuje i dostosowuje do kontekstu. Inżynierowie i specjaliści ds. strategii mogą używać modeli generatywnych do analizy scenariuszy, tworzenia wariantów rozwiązań czy streszczania dużych raportów technicznych.

W wielu zawodach usługowych, wymagających obecności fizycznej – od serwisantów i techników, przez pracowników branży hotelarskiej, po specjalistów ds. doradztwa – AI może pełnić rolę „asystenta w kieszeni”, podpowiadającego instrukcje, dostarczającego kontekst czy porządkującego informacje. Jednak to człowiek odpowiada za wykonanie pracy, kontakt z klientem i przyjęcie odpowiedzialności za efekt.

W takich scenariuszach kluczowe znaczenie zyskują kompetencje komplementarne wobec AI. Wśród nich znajdują się w szczególności krytyczne myślenie, umiejętność oceny wiarygodności informacji, empatia, zdolności komunikacyjne, zarządzanie zmianą oraz umiejętność skutecznej współpracy z systemami cyfrowymi. To właśnie na rozwijanie tych umiejętności powinny kłaść nacisk programy reskillingu i upskillingu, które działy HR będą projektować z wykorzystaniem danych z narzędzi takich jak model Anthropic.

W tym kontekście istotne jest również budowanie odpowiedzialnych zasad wykorzystania AI, co dobrze ilustruje doświadczenie opisane w artykule o wycofaniu kontrowersyjnych sugestii reklamowych w systemie generatywnym. Pokazuje ono, że brak jasnych standardów może prowadzić do problemów reputacyjnych i regulacyjnych – również w obszarach, gdzie AI ma pełnić rolę wyłącznie wspierającą.

Wnioski dla działów HR: jak odpowiedzialnie wykorzystać narzędzie Anthropic w planowaniu zatrudnienia

Dla działów HR model oceny ryzyka automatyzacji zbudowany przez Anthropic może stać się ważnym elementem strategicznego zarządzania zatrudnieniem. Jego wartość polega przede wszystkim na możliwości „rozłożenia na czynniki pierwsze” kluczowych stanowisk i zidentyfikowania, które zadania mają wysokie ryzyko automatyzacji, które umiarkowane, a gdzie AI pełni głównie funkcję wsparcia.

Praktycznym pierwszym krokiem jest audyt zadań. Dział HR, we współpracy z menedżerami, tworzy mapę czynności wykonywanych na kluczowych stanowiskach, a następnie – korzystając z narzędzia – przypisuje im poziomy ryzyka i potencjału produktywności. Pozwala to zobaczyć, że nawet w ramach jednego stanowiska część obowiązków może być docelowo przejęta przez AI, podczas gdy inne wymagają wzmocnienia kompetencji ludzkich.

Na tej podstawie można tworzyć plany przebudowy ról: przesuwać pracowników z zadań rutynowych do tych wymagających kontaktu z klientem, analizy czy koordynacji, projektować nowe ścieżki kariery i programy szkoleń. Zamiast myśleć wyłącznie w kategoriach redukcji etatów, firmy zyskują możliwość zaplanowania ewolucji ról w kierunku większej wartości dodanej.

Kolejnym obszarem jest planowanie szkoleń z kompetencji cyfrowych i współpracy z AI. Pracownicy powinni rozumieć zarówno potencjał, jak i ograniczenia narzędzi generatywnych, wiedzieć, jak formułować zadania dla modeli, jak weryfikować otrzymane wyniki oraz jak dbać o bezpieczeństwo danych i zgodność z regulacjami, w tym z europejskim AI Act. W tym zakresie przydatne mogą być także doświadczenia deweloperskie – integracja modeli z procesami biznesowymi, opisana szerzej w analizie dotyczącej praktycznego wdrażania w środowisku technologicznym, pokazuje, jak szybko rozwiązania AI mogą trafić do realnych aplikacji używanych przez pracowników.

Absolutnie kluczowa jest transparentna komunikacja z zespołami. Narzędzie Anthropic powinno być przedstawiane jako wsparcie strategiczne, a nie automatyczny „wyrok” dla konkretnych osób. HR powinien jasno komunikować, że celem jest przygotowanie organizacji do zmian, inwestycja w kompetencje i przesunięcia ról, a nie wyłącznie optymalizacja kosztów kosztem zatrudnionych.

Równolegle warto rozwijać wewnętrzne zasady etycznego użycia AI w organizacji. Powinny one obejmować m.in. wykorzystanie danych pracowników do trenowania modeli, zasady stosowania narzędzi AI w rekrutacji i ocenie pracowniczej, standardy transparentności wobec kandydatów i zatrudnionych, a także procedury reagowania na potencjalne błędy czy uprzedzenia generowane przez systemy. Doświadczenia firm technologicznych pokazują, że zaniedbania w tym obszarze mogą szybko przerodzić się w kryzysy reputacyjne i regulacyjne.

Ostatecznie skuteczne wykorzystanie narzędzi takich jak model Anthropic wymaga ścisłej współpracy między HR, IT i zarządem. HR wnosi perspektywę ludzi i organizacji, IT – wiedzę o możliwościach i ograniczeniach technologii, a zarząd – strategiczną wizję i odpowiedzialność za całościowe decyzje. To w tym trójkącie powinny zapadać kluczowe rozstrzygnięcia dotyczące tempa i kierunku wdrażania AI.

Perspektywa pracowników i decydentów publicznych: jak przygotować się na wyniki modeli ryzyka automatyzacji

Narzędzia oceniające ryzyko automatyzacji mają dwie dodatkowe, bardzo ważne grupy odbiorców: pracowników oraz decydentów publicznych. Dla obu kluczowe jest właściwe zrozumienie tego, czym są – i czym nie są – wyniki generowane przez takie modele.

Z perspektywy pracownika informacja, że zawód, w którym dziś pracuje, wiąże się z podwyższonym ryzykiem automatyzacji części zadań, nie powinna być traktowana jako wyrok, lecz jako sygnał ostrzegawczy i zaproszenie do działania. Oznacza to przede wszystkim potrzebę rozpoznania, które elementy pracy są najbardziej podatne na automatyzację, i świadomego rozwijania kompetencji w obszarach trudniej zastępowalnych: relacyjnych, analitycznych, kreatywnych.

Proaktywna postawa pracownika może obejmować m.in.: naukę obsługi narzędzi AI, tak aby stały się one codziennym wsparciem, a nie czarną skrzynką; inwestowanie w umiejętności miękkie, takie jak komunikacja, praca zespołowa, przywództwo; poszukiwanie w swojej roli zadań o wysokiej wartości dodanej, w których decyzje człowieka i odpowiedzialność za wynik są nie do zastąpienia. Osoby, które nauczą się efektywnie współpracować z AI, często zwiększą swoją atrakcyjność na rynku pracy, zamiast ją tracić.

Dla decydentów publicznych narzędzia takie jak model Anthropic mogą stać się ważnym wsparciem przy projektowaniu polityk rynku pracy i edukacji. Szczegółowe dane o podatności poszczególnych zestawów zadań na automatyzację mogą pomóc w identyfikacji zawodów i regionów najbardziej wymagających programów reskillingu, przy projektowaniu systemów wsparcia dla osób tracących zatrudnienie w wyniku transformacji technologicznej oraz w planowaniu reform edukacyjnych – od szkół średnich, po szkolnictwo wyższe i ustawiczne.

Jednocześnie pojawiają się istotne ryzyka. Błędna interpretacja danych, polegająca np. na traktowaniu wyników modelu jako pretekstu do masowych, z góry zaplanowanych redukcji, może wzmocnić nierówności społeczne i doprowadzić do napięć społecznych. Istnieje też zagrożenie, że z korzyści automatyzacji w pierwszej kolejności skorzystają duże korporacje dysponujące kapitałem i dostępem do zaawansowanych narzędzi, podczas gdy mniejsze przedsiębiorstwa oraz pracownicy w bardziej wrażliwych sektorach pozostaną w tyle.

Dlatego kluczowa jest przejrzystość algorytmów wykorzystywanych w zarządzaniu pracą – zarówno po stronie firm, jak i instytucji publicznych. Standardy techniczne i integracyjne – podobne do tych, które kształtują dziś ekosystem narzędzi deweloperskich i infrastruktury AI – będą miały bezpośredni wpływ na to, jak szybko i z jakim skutkiem rozwiązania takie jak model Anthropic trafią do realnych usług i aplikacji HR oraz systemów statystyki rynku pracy.

Wreszcie, odpowiedzialne wykorzystanie danych o ryzyku automatyzacji wymaga silnego dialogu społecznego – między pracodawcami, związkami zawodowymi, organizacjami pozarządowymi i administracją. Modele analityczne mogą pomóc w łagodzeniu skutków automatyzacji, jeśli staną się podstawą do planowania inwestycji w kompetencje i ochronę najsłabszych, a nie jedynie narzędziem do krótkoterminowej optymalizacji kosztów.

Co dalej z monitorowaniem ryzyka automatyzacji – rekomendacje i scenariusze na najbliższe lata

Pojawienie się narzędzia Anthropic do monitorowania ryzyka wyparcia ludzi z rynku pracy przez AI jest ważnym krokiem w stronę bardziej precyzyjnego, opartego na danych podejścia do wpływu nowych technologii na zatrudnienie. Najważniejsza zmiana polega na przesunięciu uwagi z poziomu całych zawodów na poziom konkretnych zadań i procesów oraz na jednoczesnym uwzględnieniu zarówno ryzyka automatyzacji, jak i potencjału wzrostu produktywności.

W perspektywie najbliższych 3–5 lat można oczekiwać upowszechnienia się podobnych modeli wśród największych dostawców technologii oraz w wyspecjalizowanych firmach doradczych. Jest wysoce prawdopodobne, że zostaną one wbudowane w popularne systemy HR, platformy rekrutacyjne i narzędzia do zarządzania zasobami ludzkimi, a także zaczną być wykorzystywane przez instytucje publiczne w systemach statystyki i prognozowania rynku pracy.

Aby ten rozwój przyniósł korzyści możliwie szerokim grupom, warto sformułować kilka konkretnych rekomendacji dla trzech kluczowych grup interesariuszy.

Działy HR powinny:

  • regularnie przeglądać portfel ról i zadań w organizacji z wykorzystaniem narzędzi do oceny ryzyka automatyzacji,
  • projektować ścieżki transformacji ról, które umożliwią przesunięcie pracowników z zadań rutynowych do tych o wyższej wartości dodanej,
  • inwestować w rozwój kompetencji cyfrowych i umiejętności współpracy z AI,
  • budować jasne, etyczne zasady wykorzystania AI w rekrutacji, ocenie i zarządzaniu pracą,
  • włączać pracowników w dialog o planowanych zmianach i wspólnie z nimi projektować nowe modele pracy.

Pracownicy z kolei powinni:

  • traktować AI jako narzędzie do wzmocnienia własnej pozycji na rynku pracy, a nie wyłącznie konkurenta,
  • aktywnie uczyć się obsługi narzędzi generatywnych i wykorzystywać je w codziennych zadaniach,
  • inwestować w kompetencje miękkie i specjalistyczną wiedzę dziedzinową, trudną do zastąpienia przez modele językowe,
  • śledzić informacje o zmianach w swojej branży i wykorzystywać dane z modeli ryzyka jako impuls do rozwoju, a nie powód do bierności.

Decydenci publiczni wreszcie powinni:

  • uwzględniać dane z modeli takich jak narzędzie Anthropic w krajowych strategiach edukacyjnych i politykach rynku pracy,
  • finansować programy reskillingu i upskillingu skoncentrowane na sektorach o najwyższym ryzyku automatyzacji,
  • dbać o przejrzystość i odpowiedzialność algorytmów wykorzystywanych w zarządzaniu pracą,
  • prowadzić szeroki dialog społeczny o kierunkach transformacji technologicznej i mechanizmach ochrony najbardziej narażonych grup.

Narzędzia do monitorowania ryzyka automatyzacji, takie jak model opracowany przez Anthropic, nie są „kryształową kulą”, która z góry przesądza o losach poszczególnych zawodów. To raczej dynamiczne wskaźniki, które – odpowiednio wykorzystywane – mogą pomóc firmom, pracownikom i państwom przygotować się na nadchodzące zmiany, łagodząc ich negatywne skutki i maksymalizując szanse rozwojowe.

Ostatecznie to, czy sztuczna inteligencja będzie przede wszystkim zastępować ludzi, czy raczej zwiększać ich możliwości, zależy w dużej mierze od decyzji podejmowanych dziś. Od tego, czy firmy potraktują AI jako pretekst do krótkoterminowych oszczędności, czy jako narzędzie do budowy bardziej innowacyjnych, produktywnych i inkluzywnych miejsc pracy. Od tego, czy instytucje publiczne ograniczą się do reaktywnego łagodzenia skutków, czy aktywnie wykorzystają dane i analitykę do kształtowania mądrej polityki rynku pracy. I wreszcie – od jakości dialogu między pracodawcami, pracownikami a twórcami technologii, w którym modele oceny ryzyka będą jednym z kluczowych, ale nie jedynym, głosów.


Leave a Reply

Your email address will not be published. Required fields are marked *