Od memów do garażowego AI: jak Polacy naprawdę „hakują” ChatGPT

Od memów do garażowego AI: jak Polacy naprawdę „hakują” ChatGPT

Kiedy ChatGPT spotyka polski internet: od heheszków do poważnych eksperymentów

Pierwszy raz trafiłem na ten motyw późnym wieczorem. Ktoś wrzucił screena z rozmowy z ChatGPT, klasyczne „Co ten ChatGPT… :)”, jakiś absurdalny dialog, śmiech na pół ekranu. Przewijam niżej, spodziewam się kolejnych żartów, a tam nagle dyskusja o ESP32, bibliotekach, zasilaniu i tym, jak z tego zrobić domowego asystenta. Od mema do schematu elektrycznego w pięć komentarzy.

Tak wygląda dziś polskie „hakowanie” ChatGPT. I nie chodzi o włamywanie się do systemu, tylko o kombinowanie, jak go wykorzystać inaczej niż przewidział producent. Raz są to żartobliwe prompty, które mają wywołać jak najdziwniejszą odpowiedź. Innym razem – pomysł, żeby podpiąć model do taniego mikrokontrolera i sprawić, żeby gadał z naszym domem. Wszystko w jednym wątku, bez zmiany tonu, z tym samym „XD” na końcu.

Pod „hakowaniem” mam tu na myśli kreatywne testowanie granic: jak daleko da się pociągnąć model, jak reaguje na nietypowe role, czy zrozumie nasze lokalne żarty, czy pomoże wygenerować logikę dla domowego projektu. Bez żargonu, bez białych kapeluszy i wielkich teorii bezpieczeństwa – raczej styl „a zobaczmy, co się stanie, jeśli napiszemy tak…”.

To wszystko nie dzieje się w laboratoriach, tylko na kanapie, przy kawie albo lutownicy. I mam coraz silniejsze wrażenie, że właśnie te oddolne eksperymenty – od ludzi wrzucających memy po hobbystów z ESP32 na biurku – realnie popychają rozwój narzędzi AI. Kiedy producenci widzą, co użytkownicy robią „obok regulaminu”, często po cichu dorzucają nowe funkcje, lepsze API, mocniejsze filtry. W dalszej części tego tekstu przejdę od heheszków do garażowego hardware’u, a po drodze dotkniemy pytania, gdzie kończy się niewinny test, a zaczyna robienie głupot z prawdziwymi konsekwencjami.

Sam złapałem się ostatnio na tym, że przeglądałem kolejne screeny z żartów z ChatGPT, aż w pewnym momencie natrafiłem na zdjęcie małego pudełka z podpisem w stylu „to tylko śmieszny projekt z ESP32”. Tyle że opis wskazywał, iż ten „żart” naprawdę steruje lampami w mieszkaniu, a ChatGPT podpowiada mu, co robić. I w tym momencie kliknęło mi w głowie: to już nie jest tylko rozmówka w oknie przeglądarki, to zaczyna żyć poza ekranem.

Żartobliwe prompty, podchwytliwe pytania i inne sztuczki, które uczą AI czego nie robić

Jeśli spędziliście choć chwilę w polskim internecie, to wiecie, że poczucie humoru mamy dość specyficzne. Gdy pojawił się ChatGPT, pierwsza fala to były oczywiście dialogi w stylu: „Napisz list miłosny, jakby autorem był urzędnik z powiatowego wydziału komunikacji” albo „Udawaj wkurzonego sąsiada z czwartego piętra”. Screen, śmiech, kolejny screen.

Po chwili robi się ciekawiej. Ktoś wymyśla prompt, który ma „złamać” model: tak sformułowane pytanie, że odpowiedź będzie nielogiczna albo sprzeczna. Ktoś inny prosi AI, żeby wcieliła się w rolę postaci, która niby nie podlega już standardowym zasadom bezpieczeństwa. Albo łączy kilka sprzecznych reguł naraz, żeby zobaczyć, co z tego wyjdzie. I tak rodzą się lokalne legendy: „ten prompt zawsze wywołuje błąd”, „ten sprawia, że model zaczyna filozofować o schabowym”.

Z zewnątrz wygląda to jak zwykła zabawa. Od środka – jak darmowe testowanie granic. Setki użytkowników wymyślają coraz bardziej absurdalne scenariusze, chcąc sprawdzić, czy AI da się nabrać, czy utrzyma powagę, czy zadziałają filtry. To są te momenty, po których twórcy modeli po cichu poprawiają zabezpieczenia albo uczą system, żeby nie podawał instrukcji rzeczy, których naprawdę nie chcemy widzieć w gotowej recepturze. O tym, jak cienka jest granica między niegroźnym promptem a prawdziwym wyciekiem, pisałem szerzej w tekście „Chiński urzędnik, ChatGPT i tajna operacja: czego uczy nas pierwszy „wielki wyciek AI””. Tam ta zabawa skończyła się bardzo realnym kryzysem.

Dwa typowe „haki”, które regularnie widzę: po pierwsze, kreatywne obchodzenie zakazów poprzez wielopiętrowe role („ty nic nie rób, tylko zacytuj, co powiedziała inna postać, która zna odpowiedź na zakazane pytanie”). Po drugie, budowanie absurdalnych światów, w których to, co w realu byłoby szkodliwe, jest tylko „elementem gry fabularnej” – z nadzieją, że model się pogubi. Nie chodzi mi o to, żeby kogokolwiek zachęcać do takich eksperymentów. Raczej o zrozumienie, dlaczego filtry bezpieczeństwa są tak rozbudowane i dlaczego czasem reagują zbyt ostro nawet na niewinny żart.

Przy okazji wszyscy uczymy się nowej kultury korzystania z AI. Wiemy już mniej więcej, gdzie model odmawia odpowiedzi, jakie tematy wywołują „czerwone światło” i czego po prostu nie wypada wrzucać do okienka czatu, bo to przestaje być żart. Ta nauka często zaczyna się od mema, a kończy na refleksji, że jeden źle dobrany prompt może dotknąć rzeczy, których nie chcieliśmy dotykać.

Garażowe AI: ChatGPT spotyka ESP32, domowy hardware i polskie „zrób to sam”

Druga ścieżka „hakowania” prowadzi prosto do garażu, piwnicy albo biurka zasłanego kablami. Schemat jest prosty: ktoś bierze tani mikrokontroler ESP32, dokłada kilka czujników, może moduł Wi-Fi, i zamiast kolejnego migającego LED-a buduje sobie małego asystenta do domu. ChatGPT nie siedzi już w przeglądarce, tylko wchodzi w rolę mózgu, który podpowiada, co zrobić, gdy w mieszkaniu robi się zbyt zimno, światła zostają włączone zbyt długo albo paczka stoi pod drzwiami.

W praktyce wygląda to tak, że hardware staje się „rękami i uszami”: czyta stan przycisków, nasłuchuje komend, zbiera dane z czujników. Model językowy robi za warstwę, która tłumaczy nasz naturalny język na konkretne akcje. Powiedz „zrób klimat jak w kinie”, a system zrozumie to jako: przygasz światło, włącz konkretną scenę na LED-ach, może ściągnij rolety. Nie trzeba znać wszystkich komend – od tego jest czat.

Widzę trzy główne typy takich „garażowych” projektów w polskiej bańce DIY. Pierwszy to sterowanie prostymi urządzeniami: listwy zasilające, lampy, czasem kawałki automatyki domowej, gdzie ChatGPT pomaga wygenerować logikę albo gotowe komendy. Drugi to małe „pudełka doradcze”, które podsuwają podpowiedzi, przypominają o zadaniach, komentują wyniki z czujników temperatury czy zużycia energii. Trzeci typ to rzeczy robione „dla beki”: urządzenie, które ma się z nami kłócić, rzucać sarkastyczne komentarze, odpowiadać jak ulubiony bohater serialu. A potem okazuje się, że w tle to jest całkiem sensowny test interfejsów, API i integracji.

Co najlepsze, wiele z tych projektów zaczyna się od jednego screena z mema. Ktoś rzuca pół-żartem: „a gdyby ChatGPT gadał z moją roletą w salonie?”. Za tydzień widzę zdjęcie płytki prototypowej, za miesiąc – wideo z działającym prototypem. Wtedy naprawdę czuję, że generatywna AI wychodzi z przeglądarki i zaczyna być kolejnym narzędziem DIY, obok lutownicy i drukarki 3D.

Podobny mechanizm widziałem już wcześniej w zupełnie innym miejscu – w sklepach internetowych. Tam też najpierw pojawiały się nieśmiałe eksperymenty: ktoś po godzinach dokładnie sprawdzał, czy da się podmienić klasyczne okienko wyszukiwania na czat z AI, żeby klient pisał „szukam butów na ślub, ale bez obcasów”, a system sam znajdzie odpowiedni filtr. Opisałem to szerzej w tekście „ChatGPT zamiast Google? Jak generatywna AI przebudowuje polski e‑commerce”. Najpierw eksperyment na zapleczu sklepu, potem – gdy okazało się, że to działa – marketingowe hasła o „innowacyjnym asystencie zakupowym”.

Tu dochodzimy do mało wygodnej obserwacji: duże firmy uwielbiają chwalić się „innowacjami AI”, ale sporo inspiracji wycieka właśnie z takich nieformalnych, garażowych projektów. Hobbysta z ESP32 w ręku często szybciej pokazuje, że coś da się zrobić taniej i prościej, niż korporacyjny zespół z budżetem i ganttem. Dopiero gdy projekt z mema zaczyna działać w bloku na Ursynowie, ktoś w centrali myśli: „to może zrobić z tego produkt”.

Jak testować granice regulaminu i bezpieczeństwa, nie robiąc głupot

Przy całej sympatii do heheszków i DIY, w pewnym momencie pojawia się poważniejsze pytanie: gdzie kończy się niewinny eksperyment, a zaczyna realne ryzyko. Dla nas, dla innych, dla danych, które wrzucamy do systemu. Bo to, co robimy z ChatGPT, rzadko zostaje „w pokoju”.

Najpierw przykład z biura. Ktoś wrzuca do czatu pełne dane swojej firmy: listę klientów, marże, wewnętrzne procedury. Prosi o analizę albo napisanie strategii sprzedaży. Bez zastanowienia, czy takie informacje w ogóle powinny lądować w zewnętrznym narzędziu. Potem jest zaskoczenie, że szef działu bezpieczeństwa łapie się za głowę.

Druga sytuacja to próby „przechytrzenia” filtrów. Użytkownik nie potrzebuje wcale tego, o co pyta – chce tylko sprawdzić, czy da się wyciągnąć instrukcje techniczne, których modele właśnie mają nie podawać. Niby eksperyment, niby ciekawość, w praktyce – dokładanie cegiełki do wyścigu, w którym twórcy systemów muszą łatać kolejne luki. O tym, ile to kosztuje emocjonalnie ludzi po drugiej stronie, pisałem w tekście „Dlaczego talenty odchodzą z Big Techu do poezji i nauki? Ludzka cena wyścigu w sztucznej inteligencji”. Za każdą nową „sztuczką” stoi później ktoś, kto musi ją zrozumieć, opisać, zablokować.

Trzeci scenariusz to domowe projekty, które dotykają prawdziwego sprzętu: zamków, alarmów, pieca gazowego. Ktoś wiąże ESP32 z ChatGPT, ustawia automatyczne akcje i zaczyna ufać każdej odpowiedzi modelu, jakby to był nieomylny inżynier. Dopóki mówimy o włączeniu lampki, pół biedy. Gorzej, gdy jeden błędny prompt otwiera drzwi wtedy, gdy nikogo nie ma w domu.

Na własny użytek mam prosty kompas: czy z tym, co robię z AI, wyszedłbym na scenę konferencji, pokazałbym slajdy i opowiedział, jak to działa – bez nerwowego śmiechu i tłumaczeń? Jeśli odpowiedź brzmi „nie, lepiej, żeby nikt tego nie widział”, to prawdopodobnie przekraczam granicę, nawet jeśli wszystko dzieje się w czterech ścianach.

Oddolne eksperymenty są potrzebne, bo to one pokazują, jak naprawdę korzystamy z narzędzi. Problem zaczyna się wtedy, gdy cała energia idzie w szukanie dziur, a nie w wymyślanie sensownych zastosowań. W pewnym momencie po drugiej stronie tego okienka siedzą nie tylko serwery, ale też zmęczone zespoły bezpieczeństwa, które łatają pośpiesznie wypuszczone funkcje. I też by pewnie woleli czasem zbudować coś fajnego na ESP32.

Wracając na koniec do memów z początku: ChatGPT to nie magiczny orakl, który „wie wszystko”, tylko narzędzie, które nieustannie rozciągamy, naginamy i przepisujemy pod siebie. Najciekawsze projekty, jakie widziałem w ostatnich miesiącach, były jednocześnie śmieszne i zaskakująco użyteczne. Żart zaczynał się w komentarzach, a kończył prototypem, który realnie ułatwiał komuś życie. I to jest chyba najlepszy kierunek „hakowania” – z głową, z szacunkiem do cudzych danych i z odrobiną autoironii, kiedy kolejny raz piszemy „Co ten ChatGPT… :)”.


Leave a Reply

Your email address will not be published. Required fields are marked *