Dlaczego Sam Altman twierdzi, że superinteligencja jest „blisko”
Sam Altman, prezes OpenAI, jest dziś jedną z kluczowych postaci kształtujących globalną debatę o sztucznej inteligencji. Kieruje organizacją, która wprowadziła na rynek ChatGPT i kolejne generacje modeli, stając się jednym z głównych motorów obecnej rewolucji AI. Jego wypowiedzi mają znaczenie nie tylko dla środowiska technologicznego, lecz także dla przedsiębiorców, menedżerów i decydentów publicznych, bo bezpośrednio dotyczą przyszłości gospodarki i rynku pracy.
Altman podkreśla, że tempo rozwoju sztucznej inteligencji jest „niesamowicie szybkie” i że nie widać oznak spowolnienia. Zwraca uwagę, że od pierwszego publicznego udostępnienia ChatGPT do najnowszych generacji modeli minęły zaledwie dwa–trzy lata, a możliwości systemów wzrosły skokowo. W jednym z ostatnich wywiadów stwierdził, że byłby bardzo zaskoczony, gdyby do końca tej dekady, czyli do 2030 r., nie powstały „niezwykle wydajne modele”, zdolne robić rzeczy, których ludzie nie potrafią. Wskazuje też, że już w horyzoncie kilku najbliższych lat AI będzie w stanie dokonywać odkryć naukowych, których ludzie nie osiągnęliby samodzielnie.
W tym kontekście pojawia się pojęcie „superinteligencji”. W uproszczeniu oznacza ono systemy sztucznej inteligencji, które są ogólnie mądrzejsze od człowieka w większości istotnych domen – nauce, inżynierii, planowaniu, analizie danych czy projektowaniu złożonych rozwiązań. Często łączy się je z terminem „sztuczna inteligencja ogólna” (AGI), czyli AI zdolną wykonywać szeroki wachlarz zadań intelektualnych na poziomie człowieka lub wyższym. Dzisiejsze modele – w tym kolejne generacje GPT – są pod wieloma względami imponujące i w wąskich obszarach mogą przewyższać większość ludzi, ale nadal nie są w pełni ogólne ani samodzielne.
Kluczowa różnica polega na zakresie. Obecne systemy są świetne w konkretnych typach zadań: generowaniu tekstu, tworzeniu kodu, analityce danych, generowaniu obrazów czy wideo. Superinteligencja oznaczałaby zdolność koordynowania tych kompetencji, rozumienia nowych dziedzin, samodzielnego projektowania eksperymentów i strategii działania, bez ciągłego nadzoru człowieka. Altman sugeruje, że wejście w taki obszar może nastąpić jeszcze przed końcem dekady, a pierwsze symptomy zobaczymy już w ciągu 3–5 lat.
W jego narracji istotne jest nie tylko podkreślanie ogromnego potencjału, lecz także zwracanie uwagi na realne ryzyka: od destabilizacji rynku pracy po wyzwania bezpieczeństwa i konieczność dostosowania AI do ludzkich wartości. Z biznesowego punktu widzenia nie chodzi więc o straszenie odległą science fiction, ale o trzeźwą ocenę nadchodzącej dekady, która może być najbardziej transformacyjna od czasu upowszechnienia internetu.
Jak szybko rozwija się AI i co to realnie oznacza w horyzoncie 3–5 lat
Jeśli porównać pierwszą publiczną wersję ChatGPT z najnowszymi systemami multimodalnymi, widać wyraźnie, że AI przeszła w krótkim czasie drogę od prostego „chatbota” do wszechstronnego asystenta, który analizuje tekst, obrazy, dźwięk, wideo i kod. Altman zauważa, że w zaledwie dwóch–trzech latach możliwości narzędzi „bardzo wzrosły” – i nie ma sygnałów, że ten wzrost się wypłaszcza.
W centrum tej rewolucji stoją tzw. modele generatywne. Są to systemy, które nie tylko rozpoznają dane (tekst, obraz, dźwięk), ale potrafią tworzyć nowe treści. Generują dokumenty, prezentacje, materiały marketingowe, analizy, raporty, ilustracje, filmy, a także fragmenty oprogramowania. Ten rozwój ma charakter lawinowy, bo rośnie dostępna moc obliczeniowa, ilość i jakość danych treningowych oraz doskonalone są architektury modeli. Każde kolejne pokolenie jest z reguły wyraźnie lepsze: bardziej precyzyjne, kreatywne, zdolne do wykonywania dłuższych i bardziej złożonych zadań.
Altman wskazuje, że już dziś „pod wieloma względami” niektóre modele są mądrzejsze niż większość ludzi w wąsko zdefiniowanych obszarach – na przykład w programowaniu, streszczaniu długich tekstów czy wyszukiwaniu zależności w danych. Jednocześnie podkreśla, że w wielu innych obszarach wciąż zawodzą: nie rozumieją świata tak jak ludzie, popełniają błędy, bywają podatne na iluzje i wymagają nadzoru. Są narzędziami, a nie „magicznie myślącymi istotami”.
Z perspektywy najbliższych 3–5 lat najbardziej prawdopodobny scenariusz to powszechna „augmentacja” – wzmacnianie pracy ludzi dzięki AI. Zamiast pełnej autonomii maszyn, zobaczymy coraz głębszą integrację modeli z codziennymi narzędziami biurowymi, systemami biznesowymi i produktami konsumenckimi. Asystenci AI staną się standardowym elementem pakietów biurowych, CRM-ów, systemów ERP i platform komunikacyjnych: będą przygotowywać wstępne wersje dokumentów, protokołów, analiz, briefów kreatywnych czy odpowiedzi dla klientów, a człowiek będzie je uzupełniał, weryfikował i nadawał im ostateczny kształt.
Jednocześnie spodziewane jest pojawienie się nowych urządzeń konsumenckich, sterowanych językiem naturalnym. Altman sugeruje, że sposób korzystania z komputerów może się istotnie zmienić – od klikania w ikony przejdziemy do mówienia i pisania tego, co chcemy osiągnąć, a resztą zajmie się system. Dla użytkownika biznesowego może to oznaczać możliwość wydawania złożonych poleceń typu: „przygotuj dla mnie podsumowanie sprzedaży za ostatni kwartał, porównaj je z poprzednim rokiem, wskaż trzy najważniejsze ryzyka i zaproponuj rekomendacje dla zarządu” – bez konieczności ręcznego budowania raportów.
To nadal nie jest superinteligencja w pełnym sensie, ale już taka generacja narzędzi może głęboko przeorganizować sposób pracy, podejmowania decyzji i tworzenia wartości w firmach.
Rynek pracy w cieniu superinteligencji: jakie zadania przejmie AI, a gdzie człowiek pozostanie kluczowy
Jedna z najczęściej przytaczanych liczb w wypowiedziach Sama Altmana dotyczy skali automatyzacji. Szef OpenAI mówi, że „łatwo wyobraża sobie świat”, w którym 30–40 proc. zadań wykonywanych dziś w gospodarce przejmie sztuczna inteligencja. Chodzi jednak o zadania, a nie o całe zawody. To rozróżnienie ma fundamentalne znaczenie dla planowania kariery, strategii HR i polityk publicznych.
W niemal każdym zawodzie część obowiązków polega na pracy powtarzalnej, schematycznej, mocno osadzonej w dokumentach: wyszukiwanie informacji, przygotowywanie standardowych pism, uzupełnianie raportów, porządkowanie danych, wstępna analiza zgodnie z określoną procedurą. To właśnie ten segment jest najbardziej podatny na automatyzację przez AI. Dotyczy to księgowości, prawa, finansów, obsługi klienta, marketingu, analiz danych, researchu, a także wielu ról w administracji publicznej.
W księgowości systemy AI mogą automatycznie klasyfikować dokumenty, identyfikować anomalie, przygotowywać projekty deklaracji czy raportów finansowych. W prawie – tworzyć pierwsze wersje umów, analizować orzecznictwo i przepisy, wskazywać potencjalne ryzyka. W obsłudze klienta – odpowiadać na powtarzalne pytania, kierować sprawy do odpowiednich działów, przygotowywać streszczenia historii kontaktu. W marketingu – generować warianty tekstów reklamowych, analizować skuteczność kampanii, segmentować odbiorców.
Równocześnie rośnie znaczenie zadań, które trudniej ująć w twarde procedury: bezpośredni kontakt z ludźmi, prowadzenie negocjacji, podejmowanie decyzji w warunkach niepewności, zrozumienie kontekstu kulturowego i biznesowego, budowanie zaufania, odpowiedzialność za ostateczny wynik. To obszary, w których człowiek pozostaje kluczowy – i które najprawdopodobniej będą stanowić zasadniczą część pracy w erze zaawansowanej AI.
Altman podkreśla, że metaumiejętnością przyszłości będzie zdolność uczenia się, adaptacji i rozumienia potrzeb innych ludzi. Ważna jest umiejętność tworzenia produktów i usług rzeczywiście użytecznych dla odbiorców, a nie tylko technicznie możliwych. To kompetencje, które trudno skopiować w modelach statystycznych, a które decydują o sukcesie biznesowym.
Dla pracowników i menedżerów oznacza to przesunięcie akcentu: z „wykonywania procedur” na kreatywne rozwiązywanie problemów, współpracę i interpretację wyników generowanych przez AI. Narzędzie będzie przygotowywać dane, symulacje, podsumowania, propozycje – człowiek będzie nadawał im sens, oceniał ich adekwatność i przekładał na działanie.
W perspektywie lat 2026–2030 indywidualni pracownicy mogą zrobić kilka konkretnych kroków, aby wzmocnić swoją pozycję:
-
Systematycznie uczyć się pracy z narzędziami AI w swojej branży – od asystentów biurowych po specjalistyczne modele domenowe.
-
Rozwijać kompetencje miękkie: komunikację, negocjacje, umiejętność pracy projektowej, zarządzanie interesariuszami, prezentowanie wniosków.
-
Budować profil „człowiek + AI”: specjalista, który potrafi zlecać systemom złożone zadania, oceniać ich wyniki i łączyć je z wiedzą dziedzinową.
-
Przygotować się psychologicznie na częstą zmianę zakresu obowiązków – większą elastyczność ról i redefiniowanie opisów stanowisk co kilka lat.
Ci, którzy potraktują AI jako sojusznika, a nie rywala, z dużym prawdopodobieństwem znajdą się po wygranej stronie nadchodzących zmian.
Edukacja i rozwój kompetencji w erze modeli mądrzejszych od większości ludzi
Jeśli uczniowie i studenci mają dostęp do systemów, które w wielu zadaniach intelektualnych działają lepiej niż przeciętny człowiek, tradycyjny model edukacji oparty na zapamiętywaniu encyklopedycznej wiedzy traci sens. W takim środowisku rośnie znaczenie tego, jak zadajemy pytania, jak weryfikujemy odpowiedzi i jak łączymy informacje z różnych źródeł, a nie tego, ile faktów potrafimy powtórzyć z pamięci.
W perspektywie kilku lat można spodziewać się upowszechnienia spersonalizowanych tutorów AI, dostępnych 24/7, którzy dostosowują tempo i sposób wyjaśniania do konkretnej osoby. Programy nauczania mogą stać się bardziej dynamiczne: zamiast sztywnego podręcznika pojawią się interaktywne ścieżki, które reagują na postępy ucznia, a materiały dydaktyczne będą w dużej mierze generowane automatycznie, z uwzględnieniem indywidualnych potrzeb.
Zmienia się też rola nauczycieli i trenerów. Zamiast przekazywać głównie gotową wiedzę, będą coraz częściej projektować środowiska uczenia się: wybierać narzędzia, formułować wyzwania, moderować pracę w grupach, uczyć krytycznego myślenia i etycznego korzystania z technologii. W firmach działy L&D będą musiały uwzględnić w swoich programach „AI literacy” – podstawową i zaawansowaną umiejętność korzystania z modeli jako narzędzi pracy.
Z drugiej strony istnieją poważne ryzyka. Powszechna dostępność AI rodzi pokusę „oddania myślenia” maszynie: powierzchowne kopiowanie gotowych odpowiedzi, osłabienie umiejętności argumentacji, problem z oceną, co jest wynikiem samodzielnej pracy. W dłuższej perspektywie może to prowadzić do erozji kompetencji krytycznego myślenia, jeśli system edukacji nie zareaguje odpowiednio wcześnie.
W świecie opisanym przez Altmana szczególnego znaczenia nabierają kompetencje, które trudno zautomatyzować: ciekawość, empatia, zdolność współpracy, rozumienie kontekstu społecznego, kulturowego i etycznego. To właśnie one będą odróżniać wartościowych profesjonalistów od osób polegających wyłącznie na podpowiedziach algorytmów.
Szkoły, uczelnie i działy rozwoju w firmach mogą w najbliższych 3–5 latach podjąć kilka kluczowych działań:
-
Wprowadzić programy „AI literacy” dla wszystkich grup wiekowych i stanowisk – od podstawowych zasad działania modeli po praktyczne zastosowania.
-
Uczyć pracy z modelami jako z narzędziami: formułowania poleceń (promptowania), krytycznej weryfikacji odpowiedzi, łączenia wyników AI z wiedzą dziedzinową.
-
Przesunąć akcent z odtwarzania wiedzy na projekty, studia przypadków i rozwiązywanie realnych problemów, w których AI jest jednym z elementów środowiska pracy.
-
Opracować jasne zasady dotyczące korzystania z AI przy ocenianiu, pracach domowych, badaniach i egzaminach, aby zachować równowagę między efektywnością a uczciwością.
Instytucje, które zaczną tę transformację wcześniej, zyskają przewagę w przyciąganiu talentów i budowaniu kadr przygotowanych na erę superinteligentnych narzędzi.
Konsekwencje dla biznesu: modele superinteligentne jako nowa warstwa infrastruktury gospodarki
Nawet zanim systemy osiągną poziom pełnej superinteligencji, mogą stać się nową, uniwersalną warstwą infrastruktury – porównywalną do internetu, chmury obliczeniowej czy smartfonów. Altman mówi o radykalnym wzroście produktywności, automatyzacji złożonych procesów oraz przyspieszeniu odkryć naukowych i innowacji produktowych. W praktyce oznacza to, że firmy, które zignorują tę falę, ryzykują utratę konkurencyjności.
W perspektywie 3–5 lat można oczekiwać pojawienia się modeli biznesowych opartych na „AI-native” produktach i usługach. Będą to rozwiązania projektowane od początku z założeniem, że ich głównym interfejsem jest język naturalny i głos, a wiele decyzji operacyjnych podejmuje zintegrowany model. Przykłady to oprogramowanie do zarządzania firmą sterowane poleceniami w naturalnym języku, platformy e-commerce z dynamiczną personalizacją oferty czy systemy wspierania decyzji zarządczych, które symulują scenariusze i rekomendują działania w czasie rzeczywistym.
Równolegle narasta presja konkurencyjna. Organizacje, które szybko i mądrze wdrożą AI, mogą osiągnąć znaczącą przewagę kosztową i jakościową: skrócić czas realizacji procesów, zwiększyć dokładność analiz, poprawić obsługę klienta, wprowadzić bardziej dopasowane produkty. W efekcie mogą wymusić na konkurencji podobne inwestycje – tak jak stało się wcześniej z internetem, urządzeniami mobilnymi czy chmurą.
Coraz większe znaczenie zyskują dane, jakość procesów i integracja technologii. Same modele przestają być unikalne – korzystają z nich miliony użytkowników na całym świecie. Przewagę buduje się poprzez to, jak AI zostanie wpasowana w działalność firmy: jakie dane otrzyma, jak zostanie osadzona w procesach, jakie procedury nadzoru i odpowiedzialności zostaną zdefiniowane.
Jednocześnie pojawia się cały szereg wyzwań, na które zwracają uwagę zarówno Altman, jak i inni liderzy branży. Należą do nich wysokie koszty energii i infrastruktury niezbędnej do trenowania i utrzymania modeli, kwestie bezpieczeństwa (od ochrony danych po odporność na nadużycia), a także zgodność z przepisami, w tym z europejskim podejściem do regulacji sztucznej inteligencji. Dochodzi do tego reputacja marki: niewłaściwe użycie AI, błędy modeli czy naruszenia prywatności mogą prowadzić do kryzysów wizerunkowych.
Dla zarządów i menedżerów oznacza to konieczność działania w kilku wymiarach:
-
Przeprowadzenie audytu procesów pod kątem potencjału automatyzacji i wspomagania przez AI – identyfikacja obszarów o największym wpływie biznesowym.
-
Uruchomienie pilotażowych projektów z udziałem zespołów biznesowych, a nie tylko IT, aby zbudować wewnętrzne kompetencje i realistyczne oczekiwania.
-
Stworzenie ram zarządzania AI (governance): zasad użycia, ról i odpowiedzialności, mechanizmów nadzoru człowieka, procedur reagowania na incydenty.
-
Uwzględnienie w strategii firmy kwestii energii, lokalizacji infrastruktury i współpracy z dostawcami technologii, tak aby zrównoważyć koszty, wydajność i zgodność regulacyjną.
W krótkim czasie AI może stać się tak oczywistą warstwą infrastruktury jak łączność internetowa – a brak świadomej strategii w tym obszarze będzie równie niebezpieczny, jak ignorowanie internetu dwie dekady temu.
Między optymizmem a ryzykiem: jak interpretować ostrzeżenia i obietnice dotyczące superinteligencji
W wypowiedziach Sama Altmana uderza połączenie dużego optymizmu z wyraźną świadomością ryzyk. Z jednej strony kreśli wizję „wspaniałego świata”, w którym AI uwalnia ludzką kreatywność, podnosi produktywność i pozwala tworzyć nowe wartości na niespotykaną skalę. Z drugiej – przypomina, że nadludzka inteligencja maszynowa była przez lata wskazywana przez wielu ekspertów, takich jak Ilya Sutskever czy Eliezer Yudkowsky, jako jedno z największych potencjalnych zagrożeń dla ludzkości.
Ta pozorna sprzeczność – ostrzeganie przed ryzykiem przy jednoczesnym przyspieszaniu rozwoju technologii – rodzi pytania o motywacje liderów branży. W istocie jednak mamy do czynienia z klasyczną sytuacją technologii o ogromnym potencjale ogólnym. Sztuczna inteligencja może przynieść przełom w medycynie, nauce, energetyce, edukacji i zarządzaniu gospodarką. Jednocześnie wiąże się z systemowymi ryzykami: nowymi formami cyberataków, dezinformacją na masową skalę, destabilizacją rynku pracy, koncentracją władzy i zasobów w rękach kilku podmiotów technologicznych.
Altman podkreśla znaczenie dopasowania AI do ludzkich wartości (alignment). Chodzi o to, aby systemy, które stają się coraz potężniejsze, były projektowane, trenowane i wdrażane w sposób maksymalizujący korzyści i minimalizujący szkody. W praktyce oznacza to inwestycje w badania nad bezpieczeństwem, mechanizmy kontroli, nadzór człowieka, transparentność działania i odpowiedzialność organizacji wdrażających AI.
Dla czytelników – i dla decydentów – użyteczną ramą interpretacyjną jest traktowanie prognoz dotyczących superinteligencji nie jako proroctw, lecz jako scenariuszy obarczonych dużą niepewnością. Nikt nie jest w stanie dokładnie przewidzieć, w którym roku przekroczymy określony próg możliwości technologicznych. Możemy jednak z dużym prawdopodobieństwem stwierdzić, że kierunek rozwoju jest jasny, a skala zmian – znacząca. To wystarczy, aby uzasadnić potrzebę świadomego zarządzania tą transformacją na poziomie firm, regulatorów i całych społeczeństw.
Biznes ma w tym procesie szczególną rolę. Może wdrażać zasady etycznego użycia AI, prowadzić testy bezpieczeństwa, zlecać niezależne audyty modeli, ograniczać ryzyka dyskryminacji i nadużyć oraz aktywnie uczestniczyć w konsultacjach regulacyjnych. W praktyce oznacza to na przykład definiowanie „czerwonych linii”, czyli zastosowań, których firma świadomie się wyrzeka, oraz budowanie kultury, w której pracownicy czują się odpowiedzialni za sposób korzystania z narzędzi AI.
Co powinni zrobić dziś przedsiębiorcy, menedżerowie i specjaliści, aby nie przespać nadchodzącej zmiany
Z wypowiedzi Sama Altmana wyłania się kilka kluczowych tez: tempo rozwoju AI jest bardzo szybkie, pojawienie się bardzo zaawansowanych modeli przed końcem dekady jest wysoce prawdopodobne, sztuczna inteligencja może przejąć 30–40 proc. zadań wykonywanych dziś w gospodarce, a jednocześnie rośnie znaczenie ludzkiej troski, kreatywności i zdolności adaptacji. Niezależnie od tego, czy pełna superinteligencja pojawi się przed 2030 r., czy później, sama trajektoria rozwoju wymusi głębokie zmiany znacznie wcześniej.
Dla zarządów i właścicieli firm oznacza to konieczność potraktowania AI jako tematu strategicznego, a nie wyłącznie technologicznego. Konieczne jest wyznaczenie osoby lub zespołu odpowiedzialnego za wdrażanie AI – z mandatem do współpracy zarówno z IT, jak i z jednostkami biznesowymi. Warto uruchomić 2–3 pilotażowe projekty o mierzalnym wpływie (na przykład w obsłudze klienta, finansach, sprzedaży), aby zdobyć praktyczne doświadczenia i zbudować wewnętrzne kompetencje. AI powinna znaleźć się w agendzie zarządu nie sporadycznie, ale jako stały punkt strategicznych dyskusji.
Menedżerowie średniego szczebla stają się kluczowym ogniwem tej transformacji. To oni organizują codzienną pracę zespołów i najlepiej wiedzą, które zadania są powtarzalne, a które kreatywne. Powinni rozwijać własne kompetencje w pracy z narzędziami AI, szkolić zespoły, eksperymentować z nowymi podziałami pracy „człowiek–maszyna”. Oznacza to także gotowość do zmiany procesów, rezygnacji z części dotychczasowych zadań i przesunięcia ludzi tam, gdzie ich kompetencje przynoszą największą wartość dodaną.
Dla specjalistów i ogółu pracowników nadchodząca dekada będzie okresem intensywnej nauki. Systematyczne korzystanie z narzędzi AI – w sposób przemyślany i odpowiedzialny – staje się kompetencją równie ważną jak obsługa pakietu biurowego czy komunikatorów. Równolegle warto budować „portfel kompetencji przyszłości”: kreatywność, umiejętność formułowania dobrych pytań, komunikację, rozwiązywanie problemów, pracę projektową, zdolność uczenia się nowych narzędzi.
Istotnym elementem tej postawy jest gotowość do częstej zmiany zakresu obowiązków. W świecie, w którym narzędzia pracy zmieniają się co kilka miesięcy, opis stanowiska z dnia zatrudnienia szybko traci aktualność. Przewagę zyskują ci, którzy traktują to nie jako zagrożenie, ale jako szansę na rozwój – i aktywnie szukają sposobów, aby wykorzystać AI do zwiększenia własnej efektywności i jakości pracy.
Superinteligencja, o której mówi Sam Altman, może pojawić się wcześniej lub później, niż dziś przewiduje większość ekspertów. Z biznesowego punktu widzenia nie to jest jednak najważniejsze. Kluczowe jest, że już w ciągu najbliższych kilku lat sztuczna inteligencja zmieni sposób podejmowania decyzji, projektowania produktów, organizowania pracy i kształcenia ludzi. Ci, którzy przyjmą rolę aktywnych uczestników tej zmiany – rozumieją technologię, krytycznie oceniają ryzyka, a jednocześnie szukają sposobów wykorzystania nowych narzędzi do tworzenia wartości w swoim otoczeniu – będą w najlepszej pozycji, aby skorzystać z potencjału nadchodzącej epoki superinteligencji.
Jeśli interesuje Cię ten temat, może spodobają Ci się również nasze inne artykuły, takie jak Ciemna strona AI: seksualne deepfake’i, personalizowane chatboty i kryzys samodzielnego myślenia, który porusza niebezpieczeństwa związane z AI. Możesz również przeczytać o ChatGPT jako osobisty doradca zakupowy, gdzie zastanawiamy się nad jego wpływem na e-commerce i konsumentów. A jeśli chcesz dowiedzieć się, jak nowe narzędzia, takie jak Alibaba AI i GPT-Image OpenAI, zmieniają pracę twórców, zapoznaj się z artykułem Alibaba AI kontra GPT-Image OpenAI.

