-
„Naughty Chats” w ChatGPT: erotyka, prawo i bezpieczeństwo w erze generatywnej AI

Nowy „Naughty Chats” w ChatGPT: o czym właściwie mówimy W najnowszej wersji aplikacji ChatGPT na urządzenia mobilne (oznaczonej jako 1.2026.055) niezależni analitycy kodu odnaleźli odwołania do nowego ustawienia, roboczo nazwanego „Naughty Chats”. Funkcja, której nie da się jeszcze aktywować, ma według ujawnionych opisów pozwalać asystentowi na używanie „bardziej pikantnego, dorosłego języka” w odpowiedzi na wyraźne…
-
Tysiące fałszywych kont z Chin: jak rozpoznawać operacje wpływu oparte na AI

Operacja zastraszania ujawniona przez OpenAI – dlaczego to przełomowy sygnał ostrzegawczy Ujawnienie przez OpenAI złożonej operacji zastraszania chińskich dysydentów za granicą to punkt zwrotny w debacie o bezpieczeństwie informacyjnym. Po raz pierwszy szczegółowo opisano kampanię, w której narzędzia sztucznej inteligencji – w tym modele językowe podobne do ChatGPT – zostały wykorzystane do prowadzenia przemysłowo zorganizowanej…
-
Chiński urzędnik, ChatGPT i tajna operacja: czego uczy nas pierwszy „wielki wyciek AI”

Jak prywatny „dziennik operacyjny” w ChatGPT ujawnił fragment tajnej operacji Wyobraźmy sobie średniego szczebla funkcjonariusza aparatu państwowego, zajętego na co dzień żmudną pracą przy działaniach w sieci. W natłoku zadań odkrywa narzędzie, które wydaje się idealne do porządkowania myśli i redagowania raportów – chatbot oparty na sztucznej inteligencji. Zaczyna traktować go jak prywatny dziennik operacyjny:…
-
PromptSpy: jak pierwszy malware z generatywną AI zmienia bezpieczeństwo Androida

PromptSpy na tle boomu generatywnej sztucznej inteligencji Generatywna sztuczna inteligencja w kilka lat przeszła drogę od eksperymentu badawczego do masowego produktu konsumenckiego. ChatGPT, Gemini, Copilot i zapowiadane przez Apple rozwiązania oparte na AI stały się codziennymi narzędziami pracy i rozrywki. Wraz z ich popularyzacją rośnie jednak zainteresowanie cyberprzestępców, którzy bardzo szybko uczą się wykorzystywać nowe…
-
Lockdown Mode w OpenAI: koniec z exfiltracją danych, ale nie z atakami prompt injection

Dlaczego ataki typu prompt injection stały się priorytetem dla firm korzystających z AI W ciągu ostatnich dwóch lat duże modele językowe trafiły do serca codziennych procesów biznesowych. Chatboty obsługujące klientów, asystenci LLM wspierający działy back‑office, narzędzia do analizy dokumentów, systemy wspomagające developerów czy zespoły analityczne – wszystkie te rozwiązania zaczęły podejmować decyzje i wykonywać czynności,…
-
OpenAI Lockdown Mode: jak naprawdę działa tarcza na prompt injection

Dlaczego Lockdown Mode stał się koniecznością w erze generatywnej SI Od końca 2022 roku duże modele językowe (LLM – Large Language Models) stały się jednym z najważniejszych elementów współczesnych systemów cyfrowych. Dla wielu organizacji nie są już ciekawostką laboratoryjną, lecz krytyczną warstwą infrastruktury: wspierają obsługę klienta, przyspieszają analitykę, wspomagają generowanie kodu oraz uczestniczą w procesach…
-
Jak błąd w skrypcie GPT 5.3 Codex skasował cały dysk – i czego uczy to o bezpieczeństwie AI

Incydent, który wyczyścił cały dysk: co się właściwie wydarzyło Historia jednego z użytkowników Reddita stała się w ostatnich dniach symbolicznym studium przypadku na temat ryzyk związanych z wykorzystaniem sztucznej inteligencji w środowiskach produkcyjnych. Programistyczny asystent oparty na modelu GPT 5.3 Codex miał przygotować prosty skrypt do usuwania katalogów tymczasowych Pythona o nazwie „__pycache__”. Z pozoru…
-
Bezpieczeństwo automatyzacji z AI: jak nie dopuścić, by LLM-y „skasowały” produkcję

Głośny incydent z asystentem AI, który skasował cały dysk – co naprawdę się wydarzyło Niewielki błąd w jednym znaku. Tyle wystarczyło, aby skrypt wygenerowany przez asystenta programistycznego opartego na GPT‑5.3‑Codex zamiast posprzątać tymczasowe foldery w projekcie Pythona, całkowicie wyczyścił dysk twardy użytkownika Reddita. Według redaktora Marca Hertera, który opisał tę historię, problemem nie była „zbuntowana”…
-
Synchronizacja kontaktów w ChatGPT: jak działa, jakie dane zbiera i co to oznacza dla prywatności

Nowa funkcja w ChatGPT pod lupą: dlaczego chatbot chce naszych kontaktów ChatGPT w bardzo krótkim czasie przeszedł drogę od ciekawostki technologicznej do jednej z najczęściej instalowanych aplikacji mobilnych wykorzystujących sztuczną inteligencję. Dla wielu użytkowników stał się codziennym narzędziem pracy – od szybkiego generowania tekstów, przez pomoc w programowaniu, po wsparcie w analizie dokumentów. Działy marketingu,…
-
Fałszywe rozszerzenia ChatGPT i Gemini: jak chronić przeglądarkę i dane

Boom na sztuczną inteligencję w przeglądarce – nowa okazja dla cyberprzestępców W ciągu zaledwie kilkunastu miesięcy narzędzia oparte na sztucznej inteligencji stały się codziennością milionów użytkowników internetu. ChatGPT, Gemini i dziesiątki innych chatbotów generatywnych wspierają pisanie wiadomości e‑mail, przygotowywanie prezentacji, analizę dokumentów czy naukę języków obcych. Naturalnym krokiem było przeniesienie tych funkcji bezpośrednio do przeglądarki…
