У США розгорівся масштабний конфлікт навколо використання штучного інтелекту в оборонній сфері. У центрі — OpenAI, Anthropic, їхні флагманські моделі ChatGPT і У США розгорівся масштабний конфлікт навколо використання штучного інтелекту в оборонній сфері. У центрі — OpenAI, Anthropic, їхні флагманські моделі ChatGPT і

AI, етика і Пентагон: чому посварилися OpenAI та Anthropic і як Claude обігнав ChatGPT

2026/03/02 21:38
3 хв читання
Якщо у вас є відгуки або зауваження щодо цього контенту, будь ласка, зв’яжіться з нами за адресою crypto.news@mexc.com

AI, етика і Пентагон: чому посварилися OpenAI та Anthropic і як Claude обігнав ChatGPT

У США розгорівся масштабний конфлікт навколо використання штучного інтелекту в оборонній сфері. У центрі — OpenAI, Anthropic, їхні флагманські моделі ChatGPT і Claude, а також United States Department of Defense.

Історія вже вийшла за межі корпоративної суперечки — вона впливає на ринок AI, федеральні контракти та публічну дискусію про межі військового застосування штучного інтелекту.

Залишити коментар

У США розгорівся масштабний конфлікт навколо використання штучного інтелекту в оборонній сфері. У центрі — OpenAI, Anthropic, їхні флагманські моделі ChatGPT і Claude, а також United States Department of Defense.

Історія вже вийшла за межі корпоративної суперечки — вона впливає на ринок AI, федеральні контракти та публічну дискусію про межі військового застосування штучного інтелекту.

Що сталося

Наприкінці лютого стало відомо, що Anthropic відмовилася погодитися з вимогами Пентагону щодо потенційного розширення сценаріїв використання її моделі Claude у державних системах.

За даними американських медіа, мова йшла про можливе застосування AI в інструментах масового аналізу даних, використання у військових системах та розширення повноважень без частини вбудованих обмежень.

CEO Anthropic Даріо Амодей заявив, що компанія «не може зі спокійним сумлінням» погодитися на зняття запобіжників, якщо це відкриває шлях до автономних систем без належного людського контролю.

Після цього федеральні структури почали перегляд співпраці з Anthropic. У публічному просторі з’явилися повідомлення про призупинення використання її технологій у частині держструктур.

У гру заходить OpenAI

На цьому тлі OpenAI уклала окрему угоду на $200 млн з United States Department of Defense щодо використання своїх моделей у державних і, ймовірно, класифікованих системах.

CEO компанії Сем Альтман публічно наголосив, що угода передбачає «червоні лінії» (red lines), зокрема, йдеться заборону використання для масового внутрішнього спостереження, заборону на автономні системи летальної дії без участі людини, наявність технічних і юридичних запобіжників.

OpenAI заявила, що впроваджуватиме додаткові механізми контролю та аудит використання моделей у державному секторі.

Ринок відреагував миттєво

Скандал швидко вийшов за межі оборонної політики й перетворився на репутаційний тест для AI-ринку.

Після того як United States Department of Defense фактично відмовився від співпраці з Anthropic через небажання послаблювати запобіжники для військового використання Claude, застосунок компанії в суботу піднявся на перше місце за завантаженнями у США, обігнавши ChatGPT.

У соцмережах з’явився рух на кшталт «Cancel ChatGPT». Instagram-акаунт quitGPT за кілька днів набрав близько 10 тис. підписників.
На Reddit пост про контракт OpenAI з Пентагоном зібрав понад 30 тис. upvote під заголовком «Cancel and Delete ChatGPT!!!».
Біля офісу Anthropic у Сан-Франциско з’явився напис крейдою: «you give us courage».

Додатковим тригером для частини користувачів стали згадки про те, що президент OpenAI Ґреґ Брокман раніше жертвував $25 млн супер-PAC, який підтримував Дональда Трампа

Довгостроковий бізнес-ефект для Anthropic поки неочевидний. Однак у короткій перспективі конфлікт підживив інтерес до Claude, спровокував хвилю критики на адресу OpenAI, запустив кампанії із закликами відмовитися від ChatGPT.

«Лівацькі божевільні з Anthropic зробили катастрофічну помилку». США визнали розробників ШІ Claude загрозою національної безпеки
По темi
«Лівацькі божевільні з Anthropic зробили катастрофічну помилку». США визнали розробників ШІ Claude загрозою національної безпеки
Anthropic прибрала запобіжники у власних правилах безпеки Claude після тиску з боку Пентагону
По темi
Anthropic прибрала запобіжники у власних правилах безпеки Claude після тиску з боку Пентагону
Пентагон поставив ультиматум Anthropic: необмежений доступ до ШІ Claude або жорсткі санкції
По темi
Пентагон поставив ультиматум Anthropic: необмежений доступ до ШІ Claude або жорсткі санкції
Читайте головні IT-новини країни в нашому Telegram
По темi
Читайте головні IT-новини країни в нашому Telegram
Залишити коментар
Відмова від відповідальності: статті, опубліковані на цьому сайті, взяті з відкритих джерел і надаються виключно для інформаційних цілей. Вони не обов'язково відображають погляди MEXC. Всі права залишаються за авторами оригінальних статей. Якщо ви вважаєте, що будь-який контент порушує права третіх осіб, будь ласка, зверніться за адресою crypto.news@mexc.com для його видалення. MEXC не дає жодних гарантій щодо точності, повноти або своєчасності вмісту і не несе відповідальності за будь-які дії, вчинені на основі наданої інформації. Вміст не є фінансовою, юридичною або іншою професійною порадою і не повинен розглядатися як рекомендація або схвалення з боку MEXC.