Od euforii do zmęczenia technologią: jak wygórowane obietnice napompowały oczekiwania wobec AI
Premiera ChatGPT-5, udostępnionego latem 2025 r., nie przyniosła przełomu, którego oczekiwali zarówno inwestorzy, jak i użytkownicy. Nowy model okazał się lepszy od poprzednika, ale nie spełnił narracji o „kolejnym skoku ku ogólnej sztucznej inteligencji”, budowanej przez wielu liderów branży. Część analityków zaczęła wprost mówić o pękającej bańce na rynku AI.
Tło tych rozczarowań jest dobrze znane: spektakularny sukces ChatGPT-4, agresywny marketing wokół wizji tzw. AGI oraz głośne deklaracje Sama Altmana, który wcześniejsze modele nazywał z perspektywy czasu „głupimi”. Wyceny największych firm AI sięgały setek miliardów dolarów, a oczekiwania – kolejnej technologicznej rewolucji. Dla większości użytkowników sztuczna inteligencja stała się synonimem dużych modeli językowych, czyli programów uczonych na ogromnych zbiorach tekstu, które potrafią generować odpowiedzi przypominające ludzką rozmowę.
Oś czasu kluczowych wydarzeń na rynku generatywnej AI
- Listopad 2022 – premiera ChatGPT (GPT-3.5)
Publiczne udostępnienie ChatGPT zapoczątkowało masową popularyzację generatywnej AI, zdobywając miliony użytkowników w ciągu kilku tygodni. To wydarzenie gwałtownie podniosło wyceny firm AI i oczekiwania wobec kolejnych modeli. - Marzec 2023 – premiera GPT-4 i pierwsze płatne subskrypcje
GPT-4 wprowadzono w modelu abonamentowym (ChatGPT Plus), co wyznaczyło standard monetyzacji zaawansowanych modeli językowych. Jednocześnie pojawiły się pierwsze poważniejsze dyskusje o wysokich kosztach utrzymania infrastruktury. - Grudzień 2023 – wielomiliardowe rundy finansowania dla OpenAI i konkurentów
OpenAI, Anthropic oraz inne spółki AI pozyskały kolejne wielkie transze kapitału od gigantów technologicznych i funduszy VC. Dla wielu inwestorów był to sygnał, że generatywna AI stanie się „następnym internetem”. - 2024 – raporty o gigantycznych kosztach trenowania modeli
Media branżowe ujawniły szacunki, według których trenowanie i utrzymanie największych modeli pochłania już dziesiątki miliardów dolarów rocznie. Coraz częściej padało pytanie, czy przychody z subskrypcji i API są w stanie pokryć te wydatki. - 2024 – korekty cen i ograniczenia w darmowym dostępie do chatbotów
Wielu dostawców AI zaczęło podnosić ceny planów biznesowych oraz ograniczać funkcje dostępne w darmowych wersjach usług. Użytkownicy indywidualni i firmy po raz pierwszy mocniej odczuli realny koszt korzystania z generatywnej AI. - Początek 2025 – rosnące straty operacyjne firm AI
W raportach finansowych zaczęły pojawiać się informacje o rosnących stratach, mimo imponujących przychodów i szybkiego wzrostu użytkowników. Dla części analityków był to sygnał, że model biznesowy generatywnej AI wymaga korekty. - Lato 2025 – premiera ChatGPT-5 i porównania z Gemini 3.0
Wprowadzenie ChatGPT-5 przyniosło ewolucyjne, a nie rewolucyjne zmiany, co rozminęło się z oczekiwaniami rynku. Równoczesne testy z Gemini 3.0 pokazały, że przewaga jednego dostawcy nad innymi przestała być oczywista. - 2025 – pierwsze wyraźne sygnały „zmęczenia” rynkiem AI
Spadki wycen części spółek, ostrożniejsze rundy finansowania i chłodniejsze recenzje nowych modeli zaczęły być interpretowane jako objaw pękającej bańki. Nastroje przesunęły się od euforii ku bardziej trzeźwej ocenie potencjału i kosztów technologii.
W 2025 r. nastroje wyraźnie się zmieniły. Ulepszenia ChatGPT-5 są realne – lepsze podsumowania dokumentów, sprawniejsze programowanie, wyższa kultura języka – ale wielu użytkowników mówi o poczuciu déjà vu. Branżowe analizy na portalach takich jak theverge.com czy wired.com wskazują, że konkurencyjny model Google, Gemini 3.0, w części testów wypada lepiej od produktu OpenAI. Wciąż powtarzają się też stare problemy: halucynacje (czyli zmyślone informacje podawane z pełnym przekonaniem), błędy faktograficzne, przeciętna logika w złożonych zadaniach i nierówna jakość odpowiedzi w mniej popularnych językach.
Na taki scenariusz od lat wskazywali krytyczni badacze, m.in. Gary Marcus i Emily Bender, ostrzegając, że tempo postępu może być znacznie mniej spektakularne, niż sugerują prezesi spółek technologicznych. Entuzjaści odpowiadają, że to „naturalna faza dojrzewania” rynku, porównywalna z dotcomową korektą na początku wieku. Krytycy widzą w tym raczej klasyczną bańkę inwestycyjną, napędzaną tanim kapitałem i marketingiem, a nie stabilnym modelem biznesowym.
Co naprawdę potrafią nowe modele i gdzie rynek się mylił: między użytecznym narzędziem a niespełnioną wizją AGI
Mimo rozczarowania skalą „rewolucji”, najnowsze modele – w tym ChatGPT-5 i jego konkurenci – pozostają bardzo użytecznymi narzędziami. W praktyce wspierają pracę biurową, ułatwiają pisanie maili i raportów, pomagają w tłumaczeniach i przygotowywaniu materiałów marketingowych czy edukacyjnych. W programowaniu potrafią generować szkice kodu i podpowiadać poprawki, co dobrze widać w dyskusjach o tym, czy tradycyjne technologie, takie jak PHP, poradzą sobie w nowej rzeczywistości, analizowanych m.in. w tekście o przyszłości AI w świecie PHP. Zainteresowani alternatywami dla ChatGPT mogą przeczytać więcej o HuggingChat, otwartym źródle, które staje się coraz bardziej popularne.
Firmy coraz częściej wykorzystują generatywną AI do automatyzacji obsługi klienta, wstępnej analizy dokumentów, wsparcia zespołów analitycznych czy szybkiego prototypowania produktów. Na tej bazie powstają też wyspecjalizowane narzędzia, jak wtyczki do odtwarzania i rekomendowania muzyki w oparciu o polecenia tekstowe – przykładem jest projekt opisany w artykule Music Player ChatGPT Plugin.
Jednocześnie widać wyraźnie, gdzie oczekiwania rynku były nierealistyczne. Zapowiedzi szybkiego osiągnięcia AGI, wizje całkowitego zastąpienia większości zawodów czy obietnice nieprzerwanego ciągu „przełomów” nie znajdują potwierdzenia w danych. Według analiz finansowych cytowanych m.in. przez bloomberg.com i ft.com, koszty trenowania i utrzymania największych modeli sięgają już dziesiątek miliardów dolarów rocznie. Coraz częściej pojawia się pytanie, czy przychody nadążą za tymi wydatkami.
Do tego dochodzą wątpliwości etyczne: wykorzystywanie treści bez zgody twórców, ryzyko masowej dezinformacji, problemy z prywatnością danych oraz rosnąca presja regulacyjna – od unijnego AI Act po zapowiadane regulacje w USA. „Odczarowanie” AI nie oznacza więc, że technologia jest bezwartościowa. Raczej – że przestaje być traktowana jak cudowne rozwiązanie wszystkich problemów i zaczyna być postrzegana jako narzędzie z konkretnymi ograniczeniami, kosztami oraz wymogami odpowiedzialnego użycia. Ten bardziej trzeźwy obraz dobrze wpisuje się także w spory o wybór technologii do projektów AI, jak w analizie Python vs JavaScript w programowaniu AI.
Długoterminowe skutki „odczarowania” AI: nowe realia dla firm, użytkowników i regulatorów
Korekta nastrojów może mieć dalekosiężne skutki. Dla firm technologicznych oznacza prawdopodobnie spadek wycen, większą presję na rentowność i selekcję projektów – nie każdy pomysł z etykietą „AI” dostanie finansowanie. Inwestorzy coraz częściej oczekują konkretnych zastosowań, mierzalnych efektów i jasnych planów monetyzacji, a nie tylko obietnic przełomu.
Dla zwykłych użytkowników to szansa na bardziej realistyczne podejście do chatbotów: jako inteligentnych asystentów, którzy potrafią bardzo dużo, ale wciąż się mylą i wymagają ludzkiej kontroli. Rosnąca świadomość dotycząca prywatności danych i jakości odpowiedzi sprzyja też korzystaniu równolegle z kilku narzędzi zamiast polegania na jednym „modelu do wszystkiego”.
Regulatorzy i politycy już reagują na te zmiany. Wzmocnieniu ulega trend zaostrzania przepisów, wymogów przejrzystości i testów bezpieczeństwa. Jednocześnie pojawia się ryzyko przeregulowania, które mogłoby utrwalić dominację największych graczy i utrudnić start mniejszym innowacyjnym firmom.
Na kolejne lata rysują się co najmniej trzy scenariusze. Umiarkowany zakłada, że AI stanie się czymś w rodzaju infrastruktury – niezbędną, ale mało widoczną warstwą większości usług cyfrowych. Bardziej pesymistyczny przewiduje poważną wpadkę bezpieczeństwa lub wielki skandal związany z danymi, który wymusi gwałtowne zaostrzenie prawa. Wreszcie scenariusz odbicia dopuszcza kolejny duży przełom technologiczny, który ponownie rozbudzi oczekiwania, ale już w bardziej regulowanym, ostrożnym otoczeniu.
Obecne rozczarowanie ChatGPT-5 i innymi modelami może więc paradoksalnie sprzyjać dojrzalszemu rozwojowi sztucznej inteligencji – bliżej realnych potrzeb, kosztów i ograniczeń niż efektownych sloganów reklamowych.

