AI a wybory: dlaczego różne chatboty inaczej doradzają, na kogo głosować? Przypadek Lauren z Walii

AI a wybory: dlaczego różne chatboty inaczej doradzają, na kogo głosować? Przypadek Lauren z Walii

Historia Lauren: kiedy chatboty zaczynają „wiedzieć lepiej” od wyborcy

Wyobraź sobie Lauren. Jeździ ciężarówką po Walii, mieszka w wynajmowanym mieszkaniu, jest singielką, z tyłu głowy ciągle kalkuluje rachunki i myśli, czy w razie choroby system zdrowia w ogóle ją udźwignie. Polityki nie śledzi na bieżąco, bo po całym dniu za kółkiem ma zwyczajnie dość. I nagle zbliżają się wybory do Senedd 7 maja 2026 r.

Lauren robi to, co coraz więcej osób: wyciąga telefon i pyta chatbota, na kogo powinna zagłosować. Opisuje uczciwie swoją sytuację, swoje obawy, swoje priorytety. Jeden model – w testach padały tu odpowiedzi w stylu Labour lub Plaid Cymru – uznaje, że to dla niej najlepsze kierunki. Inny, Grok, wskazuje Reform UK. Te same dane, to samo pytanie, kompletnie różne odpowiedzi.

Brzmi jak śmieszna historyjka z internetu? Tylko że to fragment poważniejszego eksperymentu dziennikarskiego. Zespół BBC Wales, we współpracy z badaczami z National Centre for Social Research, przygotował kilka profili fikcyjnych wyborców i testował na nich najpopularniejsze chatboty: ChatGPT, Copilot, Gemini, Claude, Meta AI i Grok. Dla dwóch profili wyniki były w miarę spójne między modelami. Dopiero przy Lauren wszystko się rozjechało.

Co więcej, część chatbotów na początku grzecznie odmawiała odpowiedzi w stylu: „nie mogę wskazać konkretnej partii”. Ale po kilku dodatkowych pytaniach jednak zaczynały podsuwać bardzo konkretne opcje. A wraz z nimi – bardzo konkretne błędy.

W eksperymencie pojawiały się nie tylko rozbieżne rekomendacje. Chatboty potrafiły wskazać nieistniejących kandydatów, pomylić okręgi wyborcze, a nawet podawać nazwisko polityka, który zmarł w 2025 roku, jako aktualnego kandydata w danym okręgu. W innych przypadkach tworzyły fikcyjne listy nazwisk, brzmiących całkiem wiarygodnie, ale nieobecnych na prawdziwych kartach do głosowania.

W kontrolowanych badaniach laboratoryjnych, na starannie dobranych pytaniach ogólnych, chatboty rzeczywiście potrafią podnosić poziom wiedzy politycznej. Problem zaczyna się tam, gdzie lądują w realnym życiu: w konkretnym okręgu, konkretnej gminie, przy pytaniu o to, jakie dokładnie nazwiska zobaczysz na karcie do głosowania.

Przyznam, że sam kiedyś z ciekawości zapytałem jednego z modeli o wybory w moim okręgu. Dostałem część informacji sensownych, obok nazwisk i opisów, które kompletnie się nie zgadzały z oficjalnymi listami. Mieszanka „brzmi wiarygodnie” i „jest nieprawdą” w jednym akapicie. Pomyślałem wtedy: wyobraź sobie, że to twoje jedyne źródło przed wrzuceniem karty do urny – zauważyłbyś te błędy?

To nie jest historia o jednym „złym” chacie i „dobrym” konkurencie. To raczej sygnał ostrzegawczy, że różne modele mają różne polityki, różne ograniczenia i różne słabości. I że to, co widzimy na ekranie, jest efektem wielu decyzji projektowych, a nie neutralnego „głosu maszynowej mądrości”.

Jak działają polityczne zabezpieczenia w chatbotach i gdzie zaczynają się ich luki

Dlaczego jedne chatboty mówią: „nie mogę powiedzieć, na kogo masz głosować”, a inne po chwili rozmowy jednak wskazują konkretną partię? To nie kaprys algorytmu, tylko efekt zestawu zasad, który ktoś im wcześniej wgrał.

Duże modele językowe są najpierw trenowane na ogromnych zbiorach tekstów, a potem „doucza się” je na przykładach i instrukcjach. Chodzi o to, by nie nawoływały do przemocy, nie szerzyły nienawiści, nie promowały jednej konkretnej partii czy kandydata. Każda firma – czy to OpenAI, Google, Microsoft, xAI czy inni – ma własny pakiet takich filtrów i własny sposób ich aktualizowania. W oświadczeniach brzmi to podobnie: modele „mogą popełniać błędy”, „zachęcamy do weryfikacji”, „staramy się być obiektywni”. Tyle że nikt nie obiecuje stuprocentowej trafności.

Luki pojawiają się w kilku miejscach. Pierwszy problem to poziom deklaracji. Łatwo napisać do modelu instrukcję „nie wskazuj jednej partii”. Znacznie trudniej zaprogramować go tak, żeby nie dało się wyciągnąć rekomendacji „tylko pośrednio”: przez serię podchwytliwych pytań, lokalny kontekst albo długą rozmowę, w której użytkownik bardzo mocno naciska na konkret.

Drugi problem to czas. Modele są trenowane na danych z przeszłości. Jeśli ktoś zmarł w 2025 roku, partia zmieniła nazwę, albo okręgi zostały inaczej narysowane – system może spokojnie tkwić w poprzedniej wersji rzeczywistości. Dla niego to wciąż „prawda”, jeśli nikt tego nie skorygował.

Trzeci problem widać świetnie na przykładzie Holandii, gdzie regulator danych osobowych zwrócił uwagę, że chatboty wciskały wyborcom w zasadzie dwa główne bloki polityczne, mimo że w parlamencie zasiada przedstawicieli kilkunastu partii. Modele mają tendencję do upraszczania świata do kilku głównych biegunów. Cała reszta – mniejsze formacje, lokalne inicjatywy – ginie w tle.

Do tego dochodzi zjawisko, które eksperci nazywają „halucynacją”, a które w praktyce oznacza jedno: system z pełnym przekonaniem podaje odpowiedź, która nie jest prawdą. Psycholog Darren Edwards z Uniwersytetu Swansea mówił wprost, że te systemy są „stosunkowo wiarygodne, ale nie w stu procentach” i że połączenie tej względnej wiarygodności z ogromną pewnością siebie odpowiedzi jest niebezpieczne. Bo jeśli chatbot bez mrugnięcia okiem wymienia pięciu rzekomych kandydatów w twoim okręgu, to skąd masz wiedzieć, które nazwisko jest wymyślone?

To napięcie między użytecznością a bezpieczeństwem wcale nie jest unikalne dla polityki. Podobne dylematy pojawiają się w świecie programistów, gdzie modele pomagają pisać kod, ale też potrafią podsunąć błędne rozwiązania. Szerzej o tym sporze pisałem w tekście o tym, czy deweloperzy będą zbędni do 2030 roku – tam widać, jak te same „hamulce” i kompromisy działają w zupełnie innym zawodzie.

Dlaczego różne modele dają różne odpowiedzi i co to mówi o ich „polityce”

Wróćmy na chwilę do Lauren. Skoro opisała swoją sytuację raz, tym samym zestawem słów, czemu ChatGPT widzi w niej potencjalną wyborczynię Labour lub Plaid Cymru, a Grok – Reform UK?

Po pierwsze, inne dane treningowe. Każda firma karmi swój model innym zestawem tekstów, w innych proporcjach. Inne media, inne blogi, inne języki, inne akcenty polityczne. Z zewnątrz nie mamy pełnego wglądu w te zbiory, ale nawet zdrowy rozsądek podpowiada, że skoro różne firmy działają na różnych rynkach i mają różnych partnerów, to ich modele wyrastają na innym „informacyjnym tle”. Dwóch znajomych może przez lata czytać inne gazety i oglądać inne stacje – obaj będą w dobrej wierze, a mimo to ich intuicje polityczne będą się rozjeżdżać.

Po drugie, różne priorytety projektowe. Jeden model jest ustawiony tak, by bardzo niechętnie wchodzić w politykę. Woli trzy razy odmówić, niż raz wskazać konkretną partię. Inny stawia na „pomocność” i gdy tylko użytkownik dopytuje, zaczyna wypluwać listy rekomendacji. Ten balans między „nie angażuj się w politykę” a „bądź konkretny” kalibrują ludzie w zespołach produktowych. Efekt? Przy tym samym profilu wyborcy jedne modele częściej pokazują partie głównego nurtu, inne chętniej wskażą opcje protestu albo ugrupowania antysystemowe.

Po trzecie, różne rozumienie „zrównoważenia”. Firmy chętnie mówią, że chcą pokazywać „różne punkty widzenia”. W praktyce może to oznaczać: dwie największe partie i tyle. Albo trzy, ale bez realnego przedstawienia mniejszych. W holenderskim ostrzeżeniu regulator wyraźnie wskazywał, że scenę z kilkunastoma ugrupowaniami chatboty spłaszczały do dwóch głównych bloków – bo tak im „wychodziło” z danych i ustawień.

Przy testowaniu kilku modeli na pytania o moją lokalną politykę widziałem to bardzo wyraźnie. Raz dostałem trzy różne wersje listy kandydatów. W jednej brakowało połowy nazwisk, w drugiej pojawiła się osoba, której nie było w żadnych oficjalnych dokumentach wyborczych. I teraz kluczowe: przeciętny użytkownik nie porównuje trzech modeli. Widzi jednego chatbota na swoim telefonie i traktuje go jak „prawdę z internetu”.

To wszystko dzieje się w momencie, gdy modele dostają coraz więcej swobody w podejmowaniu quasi-autonomicznych decyzji. Jeśli interesuje cię ten szerszy wymiar – od automatycznych agentów negocjujących umowy po systemy same podejmujące działania w tle – polecam tekst o autonomicznych agentach i strategii OpenAI. W polityce to nie są już tylko ciekawostki, tylko realne konsekwencje dla tego, jak podejmujemy zbiorowe decyzje.

Ryzyka dla demokracji i praktyczne wskazówki: jak mądrze korzystać z AI przed wyborami

Jeśli 13 procent wyborców w jednym kraju już korzysta z chatbotów przy decyzjach wyborczych, to nie jest margines. To są miliony ludzi. Z raportu AI Security Institute wynika, że przed wyborami w Wielkiej Brytanii w 2024 roku około 13 procent uprawnionych do głosowania szukało politycznych informacji u konwersacyjnej AI. Przy mniej więcej 28 milionach głosów oddanych wtedy w skali kraju to ponad trzy i pół miliona osób.

W Polsce nie mamy na razie tak precyzyjnych danych. Nie mamy też instytucji na wzór brytyjskiego AI Security Institute, która systematycznie mierzyłaby wpływ chatbotów na wybory. Trochę latamy w ciemno.

Ryzyko widać na trzech poziomach. Dla pojedynczego wyborcy stawką jest to, że podejmie decyzję w oparciu o błędne, przeterminowane czy sztucznie zawężone informacje. Wyobraź sobie, że dostajesz listę kandydatów, na której jedno nazwisko jest wymyślone, a inne dawno się wycofało z polityki. Większość osób po prostu tego nie zauważy – dopiero w lokalu obwodowym, przy prawdziwej karcie, coś zacznie im nie grać. O ile w ogóle.

Na poziomie wyniku wyborów problem robi się jeszcze ostrzejszy. Jeśli błędy modeli nie są losowe, tylko systematyczne – na przykład konsekwentnie promują dwie duże partie kosztem mniejszych – to może realnie przesunąć część głosów, zwłaszcza w wyrównanych wyścigach. Nie trzeba wielkiej teorii spiskowej, wystarczy seria drobnych przekłamań zawsze w jedną stronę.

Wreszcie zaufanie do instytucji. Kilka głośnych wpadek chatbotów w tematach wyborczych może rozlać się szerzej: „skoro AI kłamie, to pewnie media też”, „sondaże są ustawione”, „komisje wyborcze coś kręcą”. Granica między zdrowym sceptycyzmem a ogólną paranoją jest tu cienka.

To otwiera temat odpowiedzialności instytucjonalnej. U nas Urząd Ochrony Danych Osobowych ma mandat przede wszystkim w sprawie danych, a Państwowa Komisja Wyborcza pilnuje procedur głosowania. Gdzieś pomiędzy nimi powstaje luka: kto ma oceniać zachowanie dużych modeli językowych w kampanii? Media mogą robić własne audyty, organizacje społeczne – niezależne testy, ale pytanie brzmi: kto w Polsce zrobi pierwsze poważne, publiczne testy chatbotów przed kampanią parlamentarną?

Dyskusja o zaufaniu do systemów AI toczy się dziś bardzo ostro również w wojsku. Sporo pisałem o tym w tekście o etycznych granicach wykorzystania AI w armii USA. Tam stawką są decyzje o użyciu siły. W demokracji stawką jest to, jak rozkładają się miliony głosów. Inny kontekst, ale podobne pytanie: jak bardzo można zaufać systemowi, którego działania nie rozumiemy w szczegółach?

Co w takim razie robić na poziomie pojedynczego wyborcy? Pierwsza rzecz: traktować chatbot jako punkt startu, a nie jedyne źródło. Jeśli model wymienia nazwiska kandydatów czy nazwy komitetów, sprawdź to później w oficjalnych materiałach – na stronach komisji wyborczych albo partii. To samo dotyczy obietnic programowych.

Druga sprawa: nie zadawać pytania „powiedz mi, na kogo mam głosować”. O wiele rozsądniej jest poprosić o porównanie programów dwóch czy trzech ugrupowań, a później samodzielnie skonfrontować to z oryginalnymi dokumentami. Chatbot może w tym sensie zadziałać jak szybkie streszczenie, ale nie jak ostatnie słowo.

Trzecia: pamiętać, że chatbot nie ma „własnego zdania”. To, co widzisz na ekranie, to efekt tysięcy decyzji konkretnych ludzi i firm – co wgrać do modelu, gdzie ustawić hamulce, jakie priorytety nadać. Podobnie jak gdy wybierasz narzędzie do planowania podróży: sięgasz po serwisy w stylu HikersBay, żeby zorientować się w kosztach życia czy cenach noclegów, ale ostateczną decyzję o destynacji i budżecie i tak podejmujesz sam.

Na koniec bardzo przyziemna propozycja. Przed kolejnymi wyborami w Polsce zrób sobie mały eksperyment: zapytaj dwa, trzy różne modele o to samo pytanie wyborcze i porównaj odpowiedzi. Zobaczysz na własne oczy, jak bardzo potrafią się różnić – i jak pewnie każdy z nich brzmi. A jeśli którykolwiek chatbot zacznie z wielką pewnością mówić ci, co masz zrobić ze swoim głosem, to jest dokładnie ten moment, żeby na chwilę się zatrzymać i poszukać drugiego źródła.


Leave a Reply

Your email address will not be published. Required fields are marked *