Fala bojkotu ChatGPT: co się właściwie wydarzyło i dlaczego to ważne
W ciągu zaledwie kilku tygodni na forach technologicznych, w mediach społecznościowych i w branżowych newsletterach pojawił się nowy, wyraźny trend: masowy odpływ części użytkowników od ChatGPT w kierunku Claude i innych alternatywnych modeli. W zagranicznych mediach, m.in. w forbes.com, zaczęły pojawiać się szacunki mówiące o ponad 1,5 mln użytkowników deklarujących odejście od usług OpenAI na rzecz konkurencji. Warto podkreślić, że nie są to oficjalne dane OpenAI, lecz zsumowane deklaracje z ankiet, grup dyskusyjnych i ruchów typu #QuitGPT, nagłaśnianych m.in. przez społeczność Reddit.
Skala zjawiska jest istotna dlatego, że mówimy o narzędziach, które przestały być ciekawostką technologiczną, a stały się infrastrukturą codziennej pracy. ChatGPT jest wbudowywany w produkty konsumenckie, aplikacje mobilne, systemy contact center, a nawet w kokpity samochodowe. W podobny sposób Claude coraz częściej pojawia się w procesach analitycznych, compliance czy obsługi klienta. Decyzja setek tysięcy czy milionów użytkowników o zmianie dostawcy nie jest więc prostą „przeprowadzką” między aplikacjami, ale sygnałem ostrzegawczym dla całego rynku generatywnej AI.
Dla marketerów oznacza to konieczność ponownego przemyślenia, komu powierzają dane klientów i na jakich zasadach. Dla działów IT – weryfikację architektury integracji i ryzyka dostawcy. Dla indywidualnych użytkowników – refleksję nad tym, na ile ufają firmie, która stoi za modelem, z którym rozmawiają na co dzień. W tle toczy się szersza dyskusja o tym, jak AI zmienia pracę biurową, role w zespołach i odpowiedzialność za decyzje. Kontekst ten rozwijamy szerzej w tekście Agenci AI w biurze: komu zabiorą pracę do 2026 roku, a komu ją odmienią?.
Obecny tekst koncentruje się na przyczynach i konsekwencjach tej fali migracji. Kluczowe są tu trzy grupy czynników: kontekst etyczno‑polityczny, kwestie prywatności i zaufania oraz różnice produktowo‑techniczne między ChatGPT a Claude. Uzupełnia je wymiar bardzo praktyczny: jak przenieść „pamięć” rozmów do nowej platformy i co to oznacza dla użytkowników indywidualnych, marketerów i działów IT.
Od „paktu z diabłem” do decyzji wojskowych: kryzys zaufania do OpenAI
W centrum obecnego kryzysu zaufania znajduje się wątek etyczno‑polityczny. OpenAI podpisało umowę z amerykańskim resortem obrony na wykorzystanie modeli AI – w tym technologii powiązanych z ChatGPT – w tajnych sieciach wojskowych. Według doniesień m.in. „The Guardian” umowa ta została początkowo zawarta w pośpiechu, po tym jak Pentagon zrezygnował ze współpracy z Anthropic, a Sam Altman przyznał publicznie, że dokument „wyglądał na oportunistyczny i niechlujny”.(theguardian.com)
Na tę decyzję nałożyły się wcześniejsze kontrowersje, takie jak współpraca OpenAI z amerykańską agencją kontroli imigracji (ICE) czy nagłaśniane w mediach darowizny polityczne – m.in. doniesienia o przekazaniu 25 mln dolarów przez współzałożyciela firmy Grega Brockmana na komitet wspierający środowisko MAGA. Dla części użytkowników, szczególnie spoza USA, stanowi to sygnał potencjalnego konfliktu wartości: narzędzie używane do pracy, edukacji czy terapii online zaczyna być kojarzone z konkretnym obozem politycznym oraz z militaryzacją technologii.
Na Reddit i w innych społecznościach pojawiły się mocne sformułowania, w których decyzję o korzystaniu z ChatGPT porównywano wręcz do „paktu z diabłem”. Tego typu metafory mają emocjonalny charakter, ale dobrze oddają fakt, że dla wielu użytkowników granicą nieprzekraczalną stał się udział ich dostawcy AI w projektach wojskowych. Altman starał się tonować nastroje, podkreślając, że umowa zawiera wyraźne ograniczenia dotyczące masowej inwigilacji i zakaz wykorzystania technologii do autonomicznego uzbrojenia.(theguardian.com) Dla części społeczności sam fakt wejścia w przestrzeń wojskową jest jednak uznawany za przekroczenie „czerwonej linii”, niezależnie od zapisów kontraktu.
Kontrastuje z tym postawa Anthropic, twórcy Claude. Według relacji agencji prasowych Dario Amodei odrzucił wniosek rządu USA o szeroki dostęp do modeli Anthropic w zastosowaniach militarnych, w tym w obszarze masowej inwigilacji i autonomicznej broni, argumentując, że obecne systemy są zbyt zawodne i niebezpieczne w sytuacjach, które mogą decydować o życiu i śmierci.(apnews.com) W odpowiedzi administracja amerykańska publicznie skrytykowała Anthropic i z czasem wykluczyła firmę z części kontraktów federalnych, ale wizerunek Claude jako „etycznej przystani” tylko się wzmocnił.
W tym kontekście coraz częściej mówi się o praktycznym wymiarze „AI ethics”. Obejmuje on m.in.:
- jasne polityki wykorzystania modeli, z wyłączeniem zastosowań militarnych i masowej inwigilacji,
- przejrzystość partnerstw i kontraktów z rządami,
- mechanizmy odpowiedzialności za skutki wdrożeń (audyt, raportowanie incydentów, niezależne przeglądy),
- zasady ograniczania uprzedzeń i dyskryminacji w odpowiedziach modelu.
Dla firm korzystających z AI pytanie brzmi coraz częściej: czy można ignorować ten kontekst, skoro klienci, pracownicy i partnerzy biznesowi podejmują decyzje nie tylko na podstawie funkcjonalności narzędzia, ale także zgodności wartości i reputacji dostawcy?
Zaufanie, prywatność i modele biznesowe: dlaczego użytkownicy przesiadają się na Claude
Za decyzjami o migracji stoją nie tylko kwestie etyczne, ale również bardzo konkretne obawy dotyczące prywatności, przejrzystości i modeli biznesowych. Dla użytkownika B2B naturalne stają się pytania: „Czy dane mojej firmy mogą pośrednio wspierać rozwój systemów wojskowych?”, „Czy moje rozmowy mogą zostać wykorzystane przez rząd?”, „Czy mam realną kontrolę nad tym, jak długo przechowywane są moje dane i do czego są używane?”.
Usługi takie jak ChatGPT i Claude różnią się podejściem do danych użytkownika. Zarówno OpenAI, jak i Anthropic deklarują możliwość ograniczenia wykorzystania rozmów do trenowania modeli – czy to przez odpowiednie ustawienia konta, czy odrębne warunki dla planów biznesowych. Jednocześnie w dokumentacji OpenAI znajduje się informacja, że usunięcie historii czatu może zająć do 30 dni, a wybrane dane muszą być przechowywane dłużej ze względu na obowiązki prawne i bezpieczeństwo systemu. To dla części firm z sektora finansowego, medycznego czy publicznego powoduje dodatkowe znaki zapytania.
Claude buduje swój przekaz wokół paradygmatu „privacy‑first”. Anthropic mocno akcentuje możliwość kontrolowania pamięci – użytkownik ma przegląd tego, co asystent „zapamiętał”, może dane edytować, usuwać, a w środowisku biznesowym stosować odrębne przestrzenie pracy i polityki retencji.(business-standard.com) Nie jest to oczywiście absolutna gwarancja braku ryzyka, ale w percepcji wielu użytkowników B2B i indywidualnych kontrast jest zauważalny.
Ilość dyskusji wywołują też modele cenowe. ChatGPT wprowadził kolejne poziomy subskrypcji (Plus/Pro, Teams, Enterprise) oraz złożony system limitów na liczbę wiadomości, wykorzystanie zaawansowanych modeli czy dostęp do nowych funkcji za dodatkową opłatą. Dla części użytkowników zmiany te są odczuwane jako stopniowe obniżanie wartości subskrypcji – mniej wiadomości, częściej pojawiające się limity, nowe funkcje za kolejnym paywallem. W ekosystemie Claude, który agresywnie promuje swoje plany Pro i Max oraz ofertę dla firm, wielu użytkowników dostrzega świeżą alternatywę postrzeganą jako bardziej „fair”, zwłaszcza w kontekście zarządzania pamięcią i długim kontekstem.
Dla marketerów i osób odpowiedzialnych za budżety IT kluczowa jest przewidywalność kosztów oraz jasność licencjonowania. Chodzi nie tylko o stawkę za token czy liczbę wiadomości, ale także o odpowiedzi na pytania:
- czy wygenerowane treści można swobodnie wykorzystywać komercyjnie,
- kto ponosi odpowiedzialność za potencjalne naruszenia praw autorskich,
- jakie są procedury reklamacyjne w przypadku istotnych błędów modelu, które wpłyną na działalność firmy.
Na tym tle coraz częściej mówi się o „trust stack” w kontekście AI – stosie zaufania, składającym się z reputacji firmy, polityki prywatności, komunikacji kryzysowej i doświadczenia użytkownika. Fala bojkotu ChatGPT jest sygnałem, że w tym stosie zaczęły pękać kolejne warstwy, a użytkownicy zaczęli realnie wykorzystywać możliwość „głosowania portfelem” i przenoszenia się do alternatywnych rozwiązań.
Więcej o praktycznych skutkach wdrażania agentów AI w zespołach biurowych opisujemy w artykule Agenci AI w biurze: komu zabiorą pracę do 2026 roku, a komu ją odmienią?, gdzie pokazujemy, jak wybór konkretnego modelu przekłada się na zakres obowiązków i wymagane kompetencje.
Techniczne różnice między ChatGPT a Claude: architektura, jakość odpowiedzi i bezpieczeństwo
Zarówno ChatGPT, jak i Claude bazują na dużych modelach językowych (LLM), które przewidują kolejne słowa w tekście na podstawie ogromnych zbiorów danych. Różnice pojawiają się na poziomie sposobu treningu, mechanizmów bezpieczeństwa oraz strategii produktowej.
OpenAI od lat rozwija podejście oparte na klasycznym „alignmentzie” z wykorzystaniem uczenia ze wzmocnieniem na podstawie informacji zwrotnej od człowieka (RLHF). Model uczy się na przykładach, jakie odpowiedzi są uznawane za pomocne, bezpieczne, spójne z politykami firmy. Anthropic wprowadził natomiast koncepcję „constitutional AI” – modelu, który ma wbudowany rodzaj wewnętrznej „konstytucji”. Zbiór zasad, inspirowanych m.in. prawami człowieka czy wytycznymi etycznymi, służy do tego, by model sam ocenił swoje odpowiedzi i korygował je, zanim trafią do użytkownika. W praktyce oznacza to m.in. większą skłonność Claude do odmawiania odpowiedzi w sytuacjach ryzykownych oraz wyjaśniania, dlaczego pewnych treści nie może wygenerować.
W doświadczeniu użytkownika różnice między modelami są wyczuwalne. ChatGPT jest często postrzegany jako bardzo kreatywny i elastyczny – szczególnie w generowaniu tekstów marketingowych, scenariuszy, treści rozrywkowych czy kodu. Claude zdobył reputację „bardziej ostrożnego analityka”: bardzo dobrze radzi sobie z długimi dokumentami, analizą regulacji, polityk wewnętrznych, przygotowywaniem streszczeń i porównań. W testach użytkowników biznesowych często pojawia się opinia, że Claude „mniej halucynuje” w zadaniach analitycznych, choć oba systemy wciąż mogą generować nieprawdziwe informacje i wymagają weryfikacji faktów.
Istotne są też parametry techniczne, takie jak długość kontekstu, czyli to, ile treści model jest w stanie „pamiętać” w ramach jednej sesji. Claude jest szczególnie silny w tym obszarze, co czyni go atrakcyjnym narzędziem do pracy z obszernymi materiałami – od dokumentacji produktowej po wielostronicowe umowy. ChatGPT natomiast integruje się coraz głębiej z ekosystemami konsumenckimi, co dobrze ilustruje przykład inteligentnych kokpitów samochodowych omawiany w tekście CarPlay z ChatGPT i Gemini: strategiczny przełom Apple w wyścigu o inteligentny kokpit. ChatGPT staje się w tym scenariuszu częścią szerszej platformy Apple, obok modeli Google Gemini, co dodatkowo komplikuje decyzje dotyczące zaufania i prywatności.
Różne grupy użytkowników patrzą na te parametry z innych perspektyw:
- Marketerzy koncentrują się na jakości tekstu, spójności narracji z tonem marki oraz ryzyku wizerunkowym związanym z błędnymi lub kontrowersyjnymi odpowiedziami.
- Działy IT zwracają uwagę na łatwość integracji przez API, dostępność narzędzi do monitoringu, możliwości wdrożeń on‑premises lub w odrębnych środowiskach chmurowych oraz kontrolę nad logami i danymi.
- Użytkownicy indywidualni oceniają przede wszystkim wygodę interfejsu, szybkość działania, ograniczenia w darmowym planie oraz przejrzystość komunikacji o tym, co dzieje się z ich danymi.
Jak Anthropic ułatwia przeniesienie „pamięci” z ChatGPT do Claude i co to oznacza w praktyce
Kluczowym elementem lojalności wobec dowolnego asystenta AI jest tzw. „pamięć” – nie w metafizycznym sensie, lecz jako zbiór danych o użytkowniku: historia rozmów, preferencje dotyczące stylu i formatu odpowiedzi, specyfika projektów, nad którymi pracuje, oraz niuanse jego języka. Po miesiącach czy latach interakcji użytkownicy mają poczucie, że model „zna” ich sposób pracy. To właśnie utrata tej pamięci była dotąd największą barierą migracji.
Anthropic postanowił tę barierę obniżyć, wprowadzając funkcje pozwalające w prosty sposób przenieść „pamięć” z ChatGPT i innych usług do Claude. Publicznie dostępne instrukcje oraz narzędzia społecznościowe opisują trzy kluczowe etapy takiej migracji:
- Eksport danych z ChatGPT. Użytkownik przechodzi do ustawień, wybiera sekcję dotyczącą danych i korzysta z funkcji „Eksportuj dane” / „Export”. Na podany adres e‑mail trafia archiwum – najczęściej plik .zip – zawierające historię rozmów, ustawienia konta, czasem także metadane dotyczące urządzeń czy lokalizacji. Sam proces może potrwać od kilku minut do kilkudziesięciu, w zależności od obciążenia systemu.
- Usunięcie historii czatów. Po pobraniu archiwum część użytkowników decyduje się na trwałe usunięcie historii rozmów z panelu ChatGPT. OpenAI zastrzega przy tym, że wykonanie takiej operacji może potrwać do 30 dni, a wybrane dane mogą być przechowywane dłużej ze względu na obowiązki prawne lub bezpieczeństwo. To ważna informacja z punktu widzenia zgodności z RODO/GDPR i polityk bezpieczeństwa informacji.
- Przeniesienie „pamięci” do Claude. Anthropic udostępnia specjalny prompt – fragment instrukcji, który użytkownik wkleja do ChatGPT (lub innego asystenta). Model generuje w odpowiedzi ustrukturyzowaną listę informacji o użytkowniku: stylu wypowiedzi, preferowanych formatach, danych osobistych, projektach, celach, powtarzających się tematach. Taki „zrzut pamięci” można następnie przejrzeć, uzupełnić, poprawić i wkleić do ustawień pamięci w Claude. W rezultacie pierwsza rozmowa z nowym asystentem przypomina raczej setną lub tysięczną – model od razu uwzględnia dotychczasowy kontekst.
Rozsądną praktyką jest potraktowanie tego procesu dwuetapowo: najpierw wykorzystać ChatGPT (lub inne narzędzie) do wydobycia i uporządkowania informacji o sobie, następnie ręcznie je przejrzeć, usunąć elementy wrażliwe lub nieaktualne i dopiero tak „przefiltrowaną” pamięć zaimportować do Claude. Minimalizuje to ryzyko przeniesienia zbędnych lub przestarzałych informacji i pozwala świadomie ukształtować profil nowego asystenta.
Na naszym blogu pokazywaliśmy już, jak budowanie takiej pamięci wygląda na przykładzie jednego, bardzo specyficznego tematu – prognoz AI dotyczących żużla – w tekście Czy ChatGPT potrafi przewidzieć mistrza świata w żużlu? Analiza możliwości AI na przykładzie Speedway Grand Prix 2026. Migracja na nową platformę oznacza w takim przypadku decyzję, czy chcemy tę „wyspecjalizowaną pamięć” przenieść, zbudować od nowa, czy może świadomie ją zresetować.
Dla marketerów i działów IT proces eksportu i usuwania danych ma również wymiar regulacyjny. Firmy działające w Europie muszą brać pod uwagę RODO/GDPR, w tym prawo do przenoszenia danych i prawo do bycia zapomnianym. W praktyce oznacza to konieczność posiadania wewnętrznej polityki „portowalności danych z AI” – podobnie jak istnieją procedury migracji danych z CRM czy narzędzi marketing automation. Warto już na etapie wyboru dostawcy AI zadawać pytania:
- jak łatwo będzie wyeksportować dane w przyszłości,
- czy istnieją narzędzia do ich selektywnego usuwania,
- jak dostawca dokumentuje przetwarzanie danych i jakie daje gwarancje w umowach B2B.
Opisane praktyki nie stanowią formalnej porady prawnej, ale są dobrym punktem wyjścia do rozmowy z działem prawnym i bezpieczeństwa informacji. To właśnie tam powinny zapaść decyzje, czy i na jakich warunkach organizacja może pozwolić sobie na importowanie czy eksportowanie „pamięci” między różnymi dostawcami AI.
Konsekwencje dla zwykłych użytkowników, marketerów i działów IT: jak przygotować się na epokę „wymienialnych” modeli AI
Zwykli użytkownicy i freelancerzy
Dla indywidualnych użytkowników i freelancerów przechodzenie między platformami AI wiąże się z realnymi kosztami i korzyściami. Z jednej strony istnieje ryzyko utraty historii rozmów, konieczność ponownego „uczenia” modelu swojego stylu pracy czy preferencji, a także czas poświęcony na eksport, import i konfigurację. Z drugiej – migracja daje szansę na odzyskanie kontroli nad danymi, weryfikację, co właściwie przekazaliśmy dotychczasowemu dostawcy, oraz wybranie narzędzia, które lepiej odpowiada naszym wartościom i oczekiwaniom.
Dobrym nawykiem jest prowadzenie własnego repozytorium kluczowych promptów, szablonów i notatek – niezależnego od konkretnej platformy. W praktyce oznacza to np. przechowywanie najważniejszych instrukcji w menedżerze notatek czy systemie zarządzania wiedzą, a nie tylko w historii czatu. Warto także regularnie wykonywać kopie zapasowe najważniejszych rozmów (np. w formie eksportu do PDF lub plików tekstowych) oraz dokumentować swoje „persony AI” – zestawy instrukcji opisujące, jak asystent ma się zachowywać w różnych rolach.
Równolegle rośnie znaczenie świadomości praw cyfrowych: prawa do przenoszenia danych, prawa do usunięcia, zgód na wykorzystanie danych do treningu modeli. Użytkownik, który zna te prawa i potrafi z nich skorzystać, ma większą sprawczość w relacji z dostawcą technologii.
Marketerzy i działy marketingu
Dla marketerów fala bojkotu ChatGPT ma wymiar reputacyjny. Klienci coraz częściej pytają nie tylko „czy używacie AI?”, ale „jakiej AI używacie?”. W kampaniach dla branż wrażliwych – zdrowie, finanse, edukacja dzieci – informacja, że dane przechodzą przez konkretnego dostawcę (np. OpenAI czy Anthropic), może stać się przedmiotem dociekliwych pytań, a nawet kryterium wyboru agencji czy dostawcy usług.
Stąd rosnące znaczenie transparentnej komunikacji: jasnych zapisów w umowach, politykach prywatności i materiałach ofertowych, opisujących jakie narzędzia AI są wykorzystywane, w jaki sposób chronione są dane klientów oraz jakie mechanizmy kontroli ma nad nimi organizacja. W praktyce rozsądnym podejściem staje się dywersyfikacja narzędzi – nieopieranie całego procesu content marketingu, obsługi klienta czy analityki na jednym, zamkniętym ekosystemie.
Działy IT i liderzy transformacji cyfrowej
Dla działów IT i osób odpowiedzialnych za transformację cyfrową obecna fala migracji jest kolejnym argumentem za budowaniem architektury „model‑agnostycznej”. Chodzi o to, by warstwa aplikacyjna firmy (systemy wewnętrzne, integracje, procesy) mogła relatywnie łatwo przełączać się między różnymi dostawcami modeli – czy to ChatGPT, Claude, Gemini, czy innymi. Technicznie oznacza to m.in. stosowanie warstw abstrakcji nad API, standardów wymiany danych, unikanie głębokiego „wrośnięcia” w specyficzne funkcje jednej platformy, o ile nie jest to absolutnie konieczne.
Równie ważna jest współpraca z działem prawnym i compliance przy ocenie nie tylko ryzyka technicznego, ale też politycznego i etycznego dostawców AI. Fala bojkotu pokazała, że decyzje biznesowe firm technologicznych – np. wejście w kontrakty wojskowe – mogą w krótkim czasie przełożyć się na reakcje klientów i konieczność rewizji strategii. Dlatego w procesie wyboru dostawcy warto uwzględniać nie tylko benchmarki jakości odpowiedzi, ale także przejrzystość polityk, sposób reagowania na incydenty bezpieczeństwa oraz gotowość do dialogu z użytkownikami.
W tym kontekście rośnie znaczenie testów porównawczych (benchmarków), w których organizacje oceniają nie tylko jakość generowanych treści, ale też stabilność usług, łatwość integracji, narzędzia monitoringu oraz sposób wprowadzania zmian w modelach. Elastyczność w wyborze modelu ma bezpośredni wpływ na to, które kompetencje w organizacji zyskają, a które stracą na znaczeniu – temat ten rozwijamy w tekście Agenci AI w biurze: komu zabiorą pracę do 2026 roku, a komu ją odmienią?.
Nowa epoka „wymienialnych” modeli AI wymaga również zmiany kultury organizacyjnej. Zamiast przywiązywać się do jednego narzędzia, firmy powinny projektować procesy tak, aby można je było relatywnie łatwo przenieść w razie zmiany warunków biznesowych, pojawienia się lepszej oferty lub kryzysu zaufania.
Wnioski dla rynku AI: co fala migracji z ChatGPT do Claude mówi o przyszłości sztucznej inteligencji
Obserwowana fala bojkotu ChatGPT i migracji do Claude jest czymś więcej niż chwilowym „buntem użytkowników”. To sygnał dojrzewania rynku generatywnej AI, w którym kluczową walutą staje się zaufanie. Najlepsze wyniki w benchmarkach czy najszybsze modele przestają wystarczać, jeśli nie towarzyszy im spójna polityka etyczna, przejrzystość partnerstw – zwłaszcza militarnych i politycznych – oraz realny wpływ użytkowników na kształt usług.
Rosnące znaczenie modeli takich jak Claude zwiększa presję konkurencyjną na OpenAI, Google, Meta i innych graczy. Paradoksalnie może to w dłuższej perspektywie przynieść korzyści wszystkim użytkownikom: im silniejsza konkurencja w obszarze bezpieczeństwa, prywatności i etyki, tym większa szansa na podniesienie standardów w całej branży. Już dziś obserwujemy, jak kolejne firmy wprowadzają bardziej przejrzyste mechanizmy zarządzania pamięcią, opcje wyłączenia treningu na danych użytkownika czy rozbudowane narzędzia audytu.
Na poziomie strategicznym widoczne jest przesunięcie pytania z „czy używać AI?” na „komu powierzyć nasze dane i procesy?”. To fundamentalna zmiana perspektywy dla marketerów, działów IT i zarządów budujących strategie cyfrowe na lata. W miarę jak modele AI wchodzą w coraz wrażliwsze obszary – od analizy dokumentów prawnych po wsparcie decyzji medycznych – znaczenie tych decyzji będzie tylko rosło.
Ważną rolę odgrywają tu regulatorzy: Unia Europejska z Aktem o sztucznej inteligencji, organy nadzoru w USA czy krajowe urzędy ochrony danych osobowych. Ich zadaniem jest ustalanie minimalnych standardów przejrzystości, raportowania ryzyka i ochrony danych. Jednocześnie praktyka pokazuje, że działania użytkowników – takie jak bojkot, migracje, presja opinii publicznej – często wyprzedzają regulacje i wymuszają zmiany szybciej niż proces legislacyjny.
Dla każdej organizacji obecna sytuacja powinna być impulsem do audytu własnego wykorzystania AI. Warto zadać sobie kilka prostych, ale fundamentalnych pytań:
- jakie dane przekazujemy modelom AI i czy są one adekwatne do celu,
- jakich dostawców wykorzystujemy, na jakich warunkach i z jakimi gwarancjami,
- czy mamy plan awaryjnej migracji na wypadek kryzysu zaufania do jednego z dostawców.
Zagadnienia te nabierają szczególnego znaczenia w kontekście coraz głębszej integracji AI w urządzeniach codziennego użytku – smartfonach, samochodach, systemach infotainment. Jak pokazujemy w tekście CarPlay z ChatGPT i Gemini: strategiczny przełom Apple w wyścigu o inteligentny kokpit, decyzje wielkich producentów sprzętu dotyczące wyboru modeli AI będą bezpośrednio wpływać na codzienne doświadczenie milionów kierowców i użytkowników. Wraz z tym rośnie waga pytań o możliwość migracji, interoperacyjność i kontrolę nad danymi.
Ostatecznie obecna fala bojkotu pokazuje, że użytkownicy – zarówno indywidualni, jak i biznesowi – nie są już biernymi odbiorcami technologii. Swoimi decyzjami o pozostaniu lub odejściu z danej platformy realnie kształtują rynek AI. To od ich wyborów będzie zależeć, które modele i które firmy zyskają przewagę – te najsilniejsze czysto technicznie, czy te, które najlepiej zrozumieją, że w świecie sztucznej inteligencji prawdziwą przewagą konkurencyjną jest zaufanie.

