OpenAI випустила попередження 10 грудня, в якому зазначається, що її майбутні моделі ШІ можуть створювати серйозні ризики для кібербезпеки. Компанія, що стоїть за ChatGPT, заявила, що ці передові моделі можуть створювати працюючі віддалені експлойти нульового дня, націлені на добре захищені системи.
Компанія ШІ також зазначила, що ці моделі можуть допомогти зі складними корпоративними або промисловими операціями вторгнення, які призводять до реальних наслідків. OpenAI поділилася цією інформацією в блозі, де розглядаються зростаючі можливості своєї технології.
Попередження відображає занепокоєння в індустрії ШІ щодо потенційного зловживання все більш потужними моделями. Кілька великих технологічних компаній вжили заходів для захисту своїх систем ШІ від подібних загроз.
Google оголосив цього тижня про оновлення безпеки браузера Chrome для блокування непрямих атак ін'єкції запитів на ШІ-агентів. Зміни відбулися перед ширшим впровадженням агентних функцій Gemini в Chrome.
Anthropic розкрила в листопаді 2025 року, що зловмисники, потенційно пов'язані з китайською державною групою, використовували її інструмент Claude Code для операції шпигунства, керованої ШІ. Компанія зупинила кампанію до того, як вона завдала шкоди.
OpenAI поділилася даними, що показують швидкий прогрес у можливостях кібербезпеки ШІ. Модель GPT-5.1-Codex-Max компанії досягла 76% на завданнях capture-the-flag у листопаді 2025 року.
Це представляє значний стрибок порівняно з 27% балів, які GPT-5 досягла в серпні 2024 року. Завдання capture-the-flag вимірюють, наскільки добре системи можуть знаходити та використовувати слабкі місця в безпеці.
Покращення за кілька місяців показує, як швидко моделі ШІ набувають передових можливостей кібербезпеки. Ці навички можуть використовуватися як для оборонних, так і для наступальних цілей.
OpenAI заявила, що створює сильніші моделі для оборонної роботи з кібербезпеки. Компанія розробляє інструменти, щоб допомогти командам безпеки легше перевіряти код та виправляти вразливості.
Фірма, підтримувана Microsoft, використовує кілька рівнів безпеки, включаючи контроль доступу, зміцнення інфраструктури, контроль вихідного трафіку та системи моніторингу. OpenAI навчає свої моделі ШІ відхиляти шкідливі запити, залишаючись корисними для освіти та оборонної роботи.
Компанія розширює моніторинг усіх продуктів, використовуючи передові моделі для виявлення потенційно зловмисної кіберактивності. OpenAI співпрацює з експертними групами red teaming для тестування та вдосконалення своїх систем безпеки.
OpenAI представила Aardvark, ШІ-агент, який працює як дослідник безпеки. Інструмент знаходиться в приватному бета-тестуванні і може сканувати код на наявність вразливостей та рекомендувати патчі.
Розробники можуть швидко впроваджувати виправлення, які пропонує Aardvark. OpenAI планує пропонувати Aardvark безкоштовно для вибраних некомерційних репозиторіїв коду з відкритим вихідним кодом.
Компанія запустить програму, яка надає кваліфікованим користувачам кіберзахисту та клієнтам багаторівневий доступ до розширених можливостей. OpenAI формує Раду з питань ризиків Frontier, залучаючи зовнішніх кіберзахисників та експертів з безпеки для роботи зі своїми внутрішніми командами.
Рада почне з фокусування на кібербезпеці, перш ніж розширюватися на інші сфери передових можливостей. OpenAI незабаром надасть деталі про програму довіреного доступу для користувачів та розробників, які працюють над кіберзахистом.
Пост OpenAI попереджає, що моделі ШІ наступного покоління становлять високі ризики для кібербезпеки вперше з'явився на Blockonomi.


