TLDR OpenAI випустила попередження про те, що її моделі штучного інтелекту наступного покоління становлять "високі" ризики для кібербезпеки і можуть створювати експлойти нульового дня GPT-5.1-Codex-Max досягTLDR OpenAI випустила попередження про те, що її моделі штучного інтелекту наступного покоління становлять "високі" ризики для кібербезпеки і можуть створювати експлойти нульового дня GPT-5.1-Codex-Max досяг

OpenAI попереджає, що моделі штучного інтелекту наступного покоління становлять високі ризики для кібербезпеки

2025/12/11 21:18

TLDR

  • OpenAI випустила попередження про те, що її моделі ШІ наступного покоління становлять "високі" ризики для кібербезпеки і можуть створювати експлойти нульового дня
  • GPT-5.1-Codex-Max досягла 76% на тестах з кібербезпеки в листопаді 2025 року, що є різким збільшенням порівняно з 27% GPT-5 у серпні 2024 року
  • Компанія впроваджує Aardvark, ШІ-агент, орієнтований на безпеку, який виявляє вразливості коду та пропонує виправлення
  • OpenAI планує створити Раду з питань ризиків Frontier з експертами з кібербезпеки та запропонувати багаторівневий доступ до розширених функцій безпеки
  • Google та Anthropic також посилили свої системи ШІ проти загроз кібербезпеки в останні місяці

OpenAI випустила попередження 10 грудня, в якому зазначається, що її майбутні моделі ШІ можуть створювати серйозні ризики для кібербезпеки. Компанія, що стоїть за ChatGPT, заявила, що ці передові моделі можуть створювати працюючі віддалені експлойти нульового дня, націлені на добре захищені системи.

Компанія ШІ також зазначила, що ці моделі можуть допомогти зі складними корпоративними або промисловими операціями вторгнення, які призводять до реальних наслідків. OpenAI поділилася цією інформацією в блозі, де розглядаються зростаючі можливості своєї технології.

Попередження відображає занепокоєння в індустрії ШІ щодо потенційного зловживання все більш потужними моделями. Кілька великих технологічних компаній вжили заходів для захисту своїх систем ШІ від подібних загроз.

Google оголосив цього тижня про оновлення безпеки браузера Chrome для блокування непрямих атак ін'єкції запитів на ШІ-агентів. Зміни відбулися перед ширшим впровадженням агентних функцій Gemini в Chrome.

Anthropic розкрила в листопаді 2025 року, що зловмисники, потенційно пов'язані з китайською державною групою, використовували її інструмент Claude Code для операції шпигунства, керованої ШІ. Компанія зупинила кампанію до того, як вона завдала шкоди.

Навички кібербезпеки ШІ швидко розвиваються

OpenAI поділилася даними, що показують швидкий прогрес у можливостях кібербезпеки ШІ. Модель GPT-5.1-Codex-Max компанії досягла 76% на завданнях capture-the-flag у листопаді 2025 року.

Це представляє значний стрибок порівняно з 27% балів, які GPT-5 досягла в серпні 2024 року. Завдання capture-the-flag вимірюють, наскільки добре системи можуть знаходити та використовувати слабкі місця в безпеці.

Покращення за кілька місяців показує, як швидко моделі ШІ набувають передових можливостей кібербезпеки. Ці навички можуть використовуватися як для оборонних, так і для наступальних цілей.

Нові інструменти безпеки та заходи захисту

OpenAI заявила, що створює сильніші моделі для оборонної роботи з кібербезпеки. Компанія розробляє інструменти, щоб допомогти командам безпеки легше перевіряти код та виправляти вразливості.

Фірма, підтримувана Microsoft, використовує кілька рівнів безпеки, включаючи контроль доступу, зміцнення інфраструктури, контроль вихідного трафіку та системи моніторингу. OpenAI навчає свої моделі ШІ відхиляти шкідливі запити, залишаючись корисними для освіти та оборонної роботи.

Компанія розширює моніторинг усіх продуктів, використовуючи передові моделі для виявлення потенційно зловмисної кіберактивності. OpenAI співпрацює з експертними групами red teaming для тестування та вдосконалення своїх систем безпеки.

Інструмент Aardvark та консультативна рада

OpenAI представила Aardvark, ШІ-агент, який працює як дослідник безпеки. Інструмент знаходиться в приватному бета-тестуванні і може сканувати код на наявність вразливостей та рекомендувати патчі.

Розробники можуть швидко впроваджувати виправлення, які пропонує Aardvark. OpenAI планує пропонувати Aardvark безкоштовно для вибраних некомерційних репозиторіїв коду з відкритим вихідним кодом.

Компанія запустить програму, яка надає кваліфікованим користувачам кіберзахисту та клієнтам багаторівневий доступ до розширених можливостей. OpenAI формує Раду з питань ризиків Frontier, залучаючи зовнішніх кіберзахисників та експертів з безпеки для роботи зі своїми внутрішніми командами.

Рада почне з фокусування на кібербезпеці, перш ніж розширюватися на інші сфери передових можливостей. OpenAI незабаром надасть деталі про програму довіреного доступу для користувачів та розробників, які працюють над кіберзахистом.

Пост OpenAI попереджає, що моделі ШІ наступного покоління становлять високі ризики для кібербезпеки вперше з'явився на Blockonomi.

Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою service@support.mexc.com для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.

Вам також може сподобатися