-
PromptSpy: jak pierwszy malware z generatywną AI zmienia bezpieczeństwo Androida

PromptSpy na tle boomu generatywnej sztucznej inteligencji Generatywna sztuczna inteligencja w kilka lat przeszła drogę od eksperymentu badawczego do masowego produktu konsumenckiego. ChatGPT, Gemini, Copilot i zapowiadane przez Apple rozwiązania oparte na AI stały się codziennymi narzędziami pracy i rozrywki. Wraz z ich popularyzacją rośnie jednak zainteresowanie cyberprzestępców, którzy bardzo szybko uczą się wykorzystywać nowe…
-
Lockdown Mode w OpenAI: koniec z exfiltracją danych, ale nie z atakami prompt injection

Dlaczego ataki typu prompt injection stały się priorytetem dla firm korzystających z AI W ciągu ostatnich dwóch lat duże modele językowe trafiły do serca codziennych procesów biznesowych. Chatboty obsługujące klientów, asystenci LLM wspierający działy back‑office, narzędzia do analizy dokumentów, systemy wspomagające developerów czy zespoły analityczne – wszystkie te rozwiązania zaczęły podejmować decyzje i wykonywać czynności,…
-
OpenAI Lockdown Mode: jak naprawdę działa tarcza na prompt injection

Dlaczego Lockdown Mode stał się koniecznością w erze generatywnej SI Od końca 2022 roku duże modele językowe (LLM – Large Language Models) stały się jednym z najważniejszych elementów współczesnych systemów cyfrowych. Dla wielu organizacji nie są już ciekawostką laboratoryjną, lecz krytyczną warstwą infrastruktury: wspierają obsługę klienta, przyspieszają analitykę, wspomagają generowanie kodu oraz uczestniczą w procesach…
-
Jak błąd w skrypcie GPT 5.3 Codex skasował cały dysk – i czego uczy to o bezpieczeństwie AI

Incydent, który wyczyścił cały dysk: co się właściwie wydarzyło Historia jednego z użytkowników Reddita stała się w ostatnich dniach symbolicznym studium przypadku na temat ryzyk związanych z wykorzystaniem sztucznej inteligencji w środowiskach produkcyjnych. Programistyczny asystent oparty na modelu GPT 5.3 Codex miał przygotować prosty skrypt do usuwania katalogów tymczasowych Pythona o nazwie „__pycache__”. Z pozoru…
-
Bezpieczeństwo automatyzacji z AI: jak nie dopuścić, by LLM-y „skasowały” produkcję

Głośny incydent z asystentem AI, który skasował cały dysk – co naprawdę się wydarzyło Niewielki błąd w jednym znaku. Tyle wystarczyło, aby skrypt wygenerowany przez asystenta programistycznego opartego na GPT‑5.3‑Codex zamiast posprzątać tymczasowe foldery w projekcie Pythona, całkowicie wyczyścił dysk twardy użytkownika Reddita. Według redaktora Marca Hertera, który opisał tę historię, problemem nie była „zbuntowana”…
-
Synchronizacja kontaktów w ChatGPT: jak działa, jakie dane zbiera i co to oznacza dla prywatności

Nowa funkcja w ChatGPT pod lupą: dlaczego chatbot chce naszych kontaktów ChatGPT w bardzo krótkim czasie przeszedł drogę od ciekawostki technologicznej do jednej z najczęściej instalowanych aplikacji mobilnych wykorzystujących sztuczną inteligencję. Dla wielu użytkowników stał się codziennym narzędziem pracy – od szybkiego generowania tekstów, przez pomoc w programowaniu, po wsparcie w analizie dokumentów. Działy marketingu,…
-
Fałszywe rozszerzenia ChatGPT i Gemini: jak chronić przeglądarkę i dane

Boom na sztuczną inteligencję w przeglądarce – nowa okazja dla cyberprzestępców W ciągu zaledwie kilkunastu miesięcy narzędzia oparte na sztucznej inteligencji stały się codziennością milionów użytkowników internetu. ChatGPT, Gemini i dziesiątki innych chatbotów generatywnych wspierają pisanie wiadomości e‑mail, przygotowywanie prezentacji, analizę dokumentów czy naukę języków obcych. Naturalnym krokiem było przeniesienie tych funkcji bezpośrednio do przeglądarki…

