Kiedy chatbot mówi ci, na kogo głosować
Wyobraź sobie jesienny wieczór 2027 roku. Siedzisz na kanapie, scrollujesz telefon, w tle coś mruczy telewizor. Wchodzisz do czatu, wpisujesz: „Na kogo powinienem głosować, jeśli zarabiam X, mieszkam w Radomiu i mam dość jałowych kłótni w TV?”. Po kilku sekundach masz pół ekranu argumentów. Po pięciu minutach – decyzję.
To nie jest już science fiction. W połowie 2025 roku z ChatGPT korzystało ponad 10 milionów osób w Polsce, czyli mniej więcej co trzeci internauta. Tempo wejścia tych narzędzi do codziennego życia było absurdalne: telewizji zajęło to dekady, social mediom – kilka lat, a dużym modelom językowym wystarczyło kilka miesięcy. I to nie tylko w Warszawie, ale też w małych miastach i na wsi.
Ciężko się dziwić, skoro już dziś używamy chatbotów do wszystkiego: pracy, nauki, pisania maili do szefa i wymyślania życzeń urodzinowych dla ciotki, której imienia nie pamiętasz. Naturalny następny krok? Pytanie o politykę. „Co ten minister naprawdę zrobił z podatkami?”, „Która partia ma konkretny plan na mieszkania?”, „Czy ten kandydat to faktycznie taka katastrofa, jak mówi mój wujek?”.
Co ważne, użytkownicy do 34. roku życia są w tych statystykach wyraźnie nadreprezentowani. Czyli dokładnie ta grupa, która przesądza wyniki wyrównanych wyborów. Trochę jakby całe to wahające się, decydujące o wyniku „centrum” przeniosło się do jednej aplikacji w telefonie.
Sam złapałem się kilka razy na tym, że zamiast skakać po serwisach informacyjnych, po prostu pytam bota: „O co właściwie chodzi w tej aferze z dotacjami na X?”. I dostaję szybki skrót, zestaw argumentów, czasem nawet zarys historii konfliktu sprzed kilku lat, którego zwykły news już nie przypomina. To wygodne. Może aż za wygodne.
Dlatego główna teza jest prosta: wybory parlamentarne 2027 będą w Polsce pierwszymi, w których chatboty staną się dla części wyborców równie ważnym doradcą jak znajomi, publicyści czy memy z TikToka. Głosujesz z czatem, nie z wujkiem przy grillu.
O podobnym „przejęciu codziennych decyzji” przez AI pisałem już przy okazji tekstu „Apple Intelligence vs ChatGPT: kto naprawdę wygrywa wojnę o codzienne wykorzystanie AI?”. Tam chodziło o to, kto wygra wojnę o nasze codzienne nawyki. Teraz ta sama wojna wchodzi na teren polityki.
Jak partie karmią modele. Od SEO do “LLM groomingu”
Myślisz, że ChatGPT sam z siebie wie, co myśli twoja ulubiona partia? Nie. To, co mówi model, jest tylko efektem tego, czym go nakarmili ludzie i jak został ustawiony.
Najprościej myśleć o tym jak o trzywarstwowym filtrze. Pierwsza warstwa to dane treningowe z lat mniej więcej 2020–2026. To tam modele „czytają” internet: artykuły, blogi, pseudo-eksperckie analizy, posty na forach. Jeśli przez kilka lat w sieci dominowała narracja jednego obozu, model przejmie ją jako domyślny opis świata – coś, co brzmi jak normalny środek, nawet jeśli jest skrajne.
Druga warstwa to świeże treści, które bot dociąga na żywo, kiedy mu zadasz pytanie. On naprawdę wchodzi na strony, przegląda je w ułamkach sekund i miesza w odpowiedzi. Tylko że to algorytm wybiera, które źródła są „wiarygodne”. Nie ty. I nikt ci nie pokazuje listy odhaczonych domen.
Trzecia warstwa to zasady wbudowane przez firmy technologiczne. Czy bot może wskazać konkretną partię? Czy może oceniać kandydatów? Czy w roku wyborczym ma mówić mniej? Te polityki są zmieniane co jakiś czas, często bez większego rozgłosu.
Na tym tle pojawia się nowe słowo, które moim zdaniem będzie hitem sezonu 2026: „LLM grooming”. Chodzi o systematyczne zalewanie internetu treściami, które wcale nie są pisane z myślą o ludziach. Mają być strawne przede wszystkim dla modelu. Wyobraź sobie think-tank istniejący głównie na papierze, blog z dziesiątkami quasi-naukowych analiz, niby-akademickie publikacje z poważnie brzmiącymi tytułami i bibliografią, której nikt nie sprawdza.
Nie chodzi o to, by ktoś to masowo czytał. Wystarczy, że przeczyta to chatbot i włączy do swojego obrazu świata.
Klasyczne SEO walczyło o pierwsze miejsce w Google. „SEO pod chatboty” walczy o coś innego: o obecność w odpowiedziach. Strona może mieć marny ruch, ale jeśli bywa cytowana w raportach, brzmi ekspercko, ma tabelki i wykresy – ma większą szansę wpaść w oko algorytmom dużego modelu językowego.
W polskiej polityce już widać, kto gra w tę grę mocniej. Zaplecze prawicy – od konserwatystów po wolnościowców – zbudowało przez ostatnią dekadę gęstą sieć think-tanków, fundacji i „ośrodków analitycznych”. Produkują one tysiące tekstów, raportów, analiz. Liberałowie, przy całej swojej obecności w mainstreamowych mediach, mają dużo słabsze, rozproszone zaplecze analityczne. W klasycznej kampanii to nie było aż tak istotne. W kampanii rozgrywającej się w bazach chatbotów – już jest.
Miałem niedawno sytuację, gdy szukałem danych o rynku smartfonów. Zamiast normalnej recenzji dostałem raport tak suchy i techniczny, że wyglądał jak żywcem wyjęty z prezentacji dla algorytmu, nie człowieka. Zresztą w tekście „Honor wyprzedza Apple? Nowy lider wzrostu na rynku smartfonów i co to oznacza do 2030 roku” pisałem, jak takie technologiczne treści ustawiają potem narrację o gospodarce i innowacjach. Dokładnie te same teksty mogą być po cichu wykorzystywane przez chatboty, gdy ktoś pyta o politykę przemysłową albo podatki dla branży tech.
To wszystko nie jest żadną teorią spiskową. To po prostu marketing treści podniesiony na nowy poziom. Różnica polega na tym, że często nie mamy pojęcia, kto tak naprawdę stoi za tekstami, z których uczył się nasz „niewidzialny doradca”.
Niewidzialna kampania: jak chatboty przesuwają głosy bez plakatów i spotów
Nie potrzeba billboardu z uśmiechniętym kandydatem, żeby kogoś przekonać – wystarczy kilkanaście minut rozmowy z chatbotem.
W jednym z głośniejszych eksperymentów ostatnich lat badani rozmawiali z botem, który miał przekonywać ich do jednego z dwóch kandydatów. Po takiej sesji wiele osób realnie zmieniało preferencje. Co gorsza dla klasycznych sztabów – AI wypadała w tym lepiej niż drogie spoty telewizyjne, które oglądamy jednym okiem między reklamą proszku a meczem.
Najdziwniejszy wniosek z tych badań był jednak inny. Najlepiej nie działały boty „empatyczne”, które głaskały rozmówcę po głowie i udawały terapeutę. Najskuteczniejsze były te, które zasypywały użytkownika lawiną „faktów” i danych. Nasz mózg ma prosty skrót: dużo argumentów = obiektywność. Nieważne, czy połowa z nich jest naciągana albo po prostu wymyślona.
Jak zwykli wyborcy faktycznie używają chatbotów? Najczęściej na trzy sposoby. Pierwszy to sprawdzanie „faktów”. Typowe pytanie: „Co polityk X mówił o emeryturach w 2023 roku?”. Zamiast przeklikać się przez archiwum, dostajesz zgrabny akapit. Nikt nie patrzy, czy w środku jest link do źródeł, a halucynacja łatwo przebiera się tu za prawdę.
Drugi sposób to szukanie partii zgodnej z własnymi poglądami. „Jestem za podniesieniem kwoty wolnej, przeciw liberalizacji prawa aborcyjnego i chcę więcej kasy na wojsko, kto mnie reprezentuje?”. Kiedyś robiły to proste quizy wyborcze oparte na deklaracjach partii. Teraz bot sam składa obraz stanowisk na podstawie tego, co wyczyta w sieci – ze wszystkimi ich przekłamaniami i brakami.
Trzeci typ to proszenie o argumenty „za” i „przeciw” konkretnym kandydatom. „Daj mi powody, żeby nie głosować na X”. Albo: „Przekonaj mnie do Y”. Kilkanaście minut takiej rozmowy daje strumień argumentów, który później w dyskusji przy kawie funkcjonuje już jako „fakt”. Coraz częściej słyszę zdania w stylu: „Bot mi powiedział, że X kłamie w sprawie podatków, więc coś jest na rzeczy”. Odpowiedź modelu staje się od razu twardą rzeczywistością, nie hipotezą.
Jest jeszcze efekt demobilizacji. Jeśli bot pokaże ci wady obu stron – a lubi to robić, bo „pokazywanie obu perspektyw” wygląda neutralnie – część osób po prostu machnie ręką i zostanie w domu. Dla niektórych operacji wpływu to nawet wygodniejsze niż walka o zmianę głosu.
Firmy technologiczne próbują ograniczać odpowiedzi polityczne w roku wyborczym: zawężają tematy, dodają komunikaty w stylu „sprawdź oficjalne źródła”, blokują bezpośrednie rekomendacje. Problem w tym, że nie da się odgrodzić polityki grubą kreską. Modele wciąż odpowiadają na tysiące pytań okołopolitycznych – o gospodarkę, bezpieczeństwo, prawa człowieka, podatki.
O tym, gdzie chatboty powinny stawiać granice, pisałem szerzej w tekście „AI kontra czarny PR: czego uczy incydent z odmową ataku na premiera Japonii”. To nie jest już akademicki spór – te same zasady będą działać w tle, kiedy w 2027 roku tysiące osób zapyta czat o wybory.
Jak nie zgubić demokracji w rozmowie z botem: przejrzystość, regulacje i zdrowy sceptycyzm
Jeśli traktujemy chatboty jak niewidzialnych doradców politycznych, to wypadałoby chociaż wiedzieć, kto im pisze ściągawki.
Żeby ten nowy ekosystem nie wywrócił nam demokracji do góry nogami, potrzebujemy trzech rzeczy naraz. Po pierwsze, przejrzystości. Zwykłej, ludzkiej informacji: skąd model bierze dane, jak traktuje treści polityczne, kiedy odmawia odpowiedzi, a kiedy nie. Nie chodzi o ujawnianie kodu źródłowego, tylko o sensowne „instrukcje obsługi” dla obywateli.
Po drugie, regulacji. Nie suchych tomów prawa, ale prostych reguł kampanijnych: oznaczania treści generowanych przez AI, raportowania, jak partie korzystają z modeli, gdzie kończy się marketing, a zaczyna manipulacja. Jeśli GUS potrafi policzyć wszystko od inflacji po liczbę gołębi w mieście, to naprawdę da się też policzyć, ile spotów i postów w kampanii wygenerowały algorytmy.
Po trzecie, dobrych nawyków użytkowników. Zwykłych wyborców. Pytanie modelu „z jakich źródeł to wziąłeś?”, sprawdzenie kluczowej odpowiedzi choćby w jednym klasycznym medium, porównanie tego, co mówi ChatGPT, z tym, co podsuwa inny model albo zwykła wyszukiwarka. To są drobne gesty, ale realnie zmieniają to, jak bardzo dajemy się prowadzić za rękę.
Co zabawne, potrafimy to robić tam, gdzie stawką jest bateria w telefonie. Pół internetu kłóci się o to, czy producent smartfona uczciwie podał czas pracy na jednym ładowaniu. A gdy modele, o których pisałem w tekście „Apple Intelligence vs ChatGPT: kto naprawdę wygrywa wojnę o codzienne wykorzystanie AI?”, zaczynają mieć wpływ na nasze głosy, temat przejrzystości nagle robi się znacznie mniej sexy.
Presja na przejrzystość nie dotyczy tylko Big Techu. Dotyczy też partii politycznych, think-tanków i wszelkich „eksperckich ośrodków”, które produkują treści pod modele. Jeśli ktoś zalewa sieć setkami analiz o tym, jak cudowny jest jego kandydat, to powinien mieć odwagę się pod nimi podpisać imieniem, nazwiskiem i źródłem finansowania, zamiast chować się za ogólną nazwą fundacji z trzema członkami.
Po stronie użytkowników można zaproponować kilka prostych nawyków. Zadawaj kontrpytania: „Jakie są argumenty przeciwne?”, „Co na ten temat mówią inne źródła?”. Kiedy dostajesz bardzo pewną odpowiedź na skomplikowane pytanie polityczne, potraktuj ją jak szkic, nie wyrocznię. Raz na jakiś czas porównaj, co na ten sam temat mówi inny model. To trochę jak sprawdzanie prognozy pogody w dwóch aplikacjach – jeśli mocno się rozjeżdżają, wiesz, że trzeba wziąć parasol na wszelki wypadek.
Bo jeśli nie zadamy sobie trudu, żeby zrozumieć, jak działają nasi niewidzialni doradcy, ktoś inny zrobi to za nas. I zaplanuje kampanię nie pod nas, tylko pod nich.

