OpenAI wydało 10 grudnia ostrzeżenie, że ich nadchodzące modele AI mogą stwarzać poważne zagrożenia dla cyberbezpieczeństwa. Firma stojąca za ChatGPT stwierdziła, że te zaawansowane modele mogą tworzyć działające zdalne exploity typu zero-day wymierzone w dobrze zabezpieczone systemy.
Firma AI zauważyła również, że modele te mogą pomagać w złożonych operacjach włamań do przedsiębiorstw lub systemów przemysłowych, prowadzących do konsekwencji w świecie rzeczywistym. OpenAI podzieliło się tymi informacjami w poście na blogu dotyczącym rosnących możliwości swojej technologii.
Ostrzeżenie odzwierciedla obawy całej branży AI dotyczące potencjalnego niewłaściwego wykorzystania coraz potężniejszych modeli. Kilka dużych firm technologicznych podjęło działania w celu zabezpieczenia swoich systemów AI przed podobnymi zagrożeniami.
Google ogłosiło w tym tygodniu aktualizacje zabezpieczeń przeglądarki Chrome, aby blokować pośrednie ataki typu prompt injection na agentów AI. Zmiany te wprowadzono przed szerszym wdrożeniem funkcji agentowych Gemini w Chrome.
Anthropic ujawniło w listopadzie 2025 roku, że podmioty zagrażające, potencjalnie powiązane z grupą sponsorowaną przez państwo chińskie, wykorzystały narzędzie Claude Code do operacji szpiegowskiej opartej na AI. Firma zatrzymała kampanię, zanim wyrządziła ona szkody.
OpenAI udostępniło dane pokazujące szybki postęp w zdolnościach AI w zakresie cyberbezpieczeństwa. Model GPT-5.1-Codex-Max firmy osiągnął 76% w wyzwaniach typu capture-the-flag w listopadzie 2025 roku.
Stanowi to znaczący skok w porównaniu z wynikiem 27%, który GPT-5 osiągnął w sierpniu 2024 roku. Wyzwania capture-the-flag mierzą, jak dobrze systemy potrafią lokalizować i wykorzystywać słabe punkty zabezpieczeń.
Poprawa w ciągu zaledwie kilku miesięcy pokazuje, jak szybko modele AI zyskują zaawansowane możliwości w zakresie cyberbezpieczeństwa. Umiejętności te mogą być wykorzystywane zarówno do celów defensywnych, jak i ofensywnych.
OpenAI poinformowało, że buduje silniejsze modele do pracy defensywnej w zakresie cyberbezpieczeństwa. Firma opracowuje narzędzia, które pomogą zespołom bezpieczeństwa łatwiej audytować kod i naprawiać luki.
Firma wspierana przez Microsoft korzysta z wielu warstw zabezpieczeń, w tym kontroli dostępu, wzmacniania infrastruktury, kontroli wyjścia i systemów monitorowania. OpenAI szkoli swoje modele AI, aby odrzucały szkodliwe żądania, pozostając jednocześnie przydatnymi do celów edukacyjnych i obronnych.
Firma rozszerza monitorowanie wszystkich produktów wykorzystujących modele graniczne, aby wychwytywać potencjalnie złośliwe działania cybernetyczne. OpenAI współpracuje z eksperckimi grupami red teamingu, aby testować i ulepszać swoje systemy bezpieczeństwa.
OpenAI wprowadziło Aardvark, agenta AI, który działa jako badacz bezpieczeństwa. Narzędzie jest w fazie prywatnych testów beta i może skanować kod pod kątem luk oraz zalecać poprawki.
Opiekunowie mogą szybko wdrażać poprawki proponowane przez Aardvark. OpenAI planuje oferować Aardvark bezpłatnie wybranym niekomercyjnym repozytoriom kodu open source.
Firma uruchomi program dający wykwalifikowanym użytkownikom i klientom z zakresu cyberobrony stopniowany dostęp do rozszerzonych możliwości. OpenAI tworzy Radę ds. Ryzyka Granicznego (Frontier Risk Council), która skupia zewnętrznych obrońców cyberbezpieczeństwa i ekspertów ds. bezpieczeństwa do współpracy z wewnętrznymi zespołami.
Rada rozpocznie działalność od skupienia się na cyberbezpieczeństwie, zanim rozszerzy się na inne obszary możliwości granicznych. OpenAI wkrótce dostarczy szczegóły dotyczące programu zaufanego dostępu dla użytkowników i deweloperów pracujących nad cyberobroną.
Post OpenAI ostrzega, że modele AI nowej generacji stwarzają wysokie ryzyko dla cyberbezpieczeństwa pojawił się najpierw na Blockonomi.


