У Anthropic был контракт с Пентагоном на $200 млн, доступ к секретным сетям и полное доверие военных США.
А потом они задали вопрос.
В ноябре 2024 года Anthropic стала первой передовой компанией в области ИИ-агентов, развернувшей систему в секретных сетях Пентагона. Партнерство было построено с Palantir. К июлю 2025 года контракт вырос до $200 млн — больше, чем большинство оборонных стартапов видят за десятилетие.
Claude, ИИ-агент модель Anthropic, была повсюду. Анализ разведданных. Кибероперации. Оперативное планирование. Моделирование и симуляция. Министерство обороны назвало это «критически важным для миссии».
Затем наступил январь 2026 года.
Claude использовался в секретной военной операции в Венесуэле — захвате Николаса Мадуро.
Anthropic задала своему партнеру Palantir простой вопрос: как именно использовалась наша технология?
В большинстве отраслей это называется дью-дилидженс. Пентагон назвал это неподчинением.
Компания, которая спросила «как используется наш ИИ-агент?», вот-вот должна была быть объявлена угрозой национальной безопасности.
Семь дней, которые изменили все
Вот хронология. Она развивается быстро. В этом и суть.
24 февраля: Пит Хегсет, министр обороны, вызывает Дарио Амодеи — генерального директора Anthropic — в Пентагон. Требование прямолинейно: убрать все меры безопасности из Claude. Массовая внутренняя слежка. Полностью автономное оружие. Все это.
Крайний срок: 27 февраля, 17:01 ET.
26 февраля: Амодеи публикует свой ответ. Он состоит из двух букв.
Нет.
Его открытое заявление определило две красные линии, которые он не пересечет:
- Никакой массовой внутренней слежки. ИИ-агент собирает ваши данные о местоположении, историю просмотров и финансовые записи в профиль — автоматически, в массовом масштабе. Точка зрения Амодеи: действующий закон позволяет правительству покупать эти данные без ордера. ИИ-агент делает возможным превращение этого в оружие. «Закон еще не догнал быстрорастущие возможности ИИ-агентов».
- Никакого полностью автономного оружия. Перевод: никакого исключения людей из решения о том, чтобы кого-то убить. Не потому, что автономное оружие никогда не будет жизнеспособным — а потому, что сегодняшний ИИ-агент недостаточно надежен. «Передовые системы ИИ-агентов просто недостаточно надежны для управления полностью автономным оружием».
Он предложил работать напрямую с Пентагоном над исследованиями и разработками для повышения надежности. Пентагон отклонил предложение.
26 февраля (тот же день): Эмиль Майкл, заместитель министра, называет Амодеи «лжецом с комплексом бога». Публично. В социальных сетях. Тон был задан.
27 февраля, 17:01: Крайний срок проходит. Президент Трамп приказывает всем федеральным агентствам прекратить использование Anthropic. Хегсет обозначает Anthropic как «Риск цепочки поставок» в соответствии с Федеральным законом о безопасности цепочки поставок приобретений 2018 года.
Это обозначение ранее было зарезервировано для Huawei и Kaspersky — иностранных компаний с задокументированными связями с враждебными правительствами.
Оно никогда не применялось к американской компании. До сих пор.
27 февраля, несколько часов спустя: OpenAI подписывает секретную сделку о развертывании с тем же Пентагоном.
Сэм Альтман пишет в твиттере в 20:56:
https://x.com/sama/status/2027578652477821175?s=20OpenAI позже заявила, что ее сделка имела «больше мер безопасности, чем любое предыдущее соглашение для секретных развертываний ИИ-агентов, включая сделку Anthropic».
Вот в чем дело. Anthropic была внесена в черный список из-за своих мер безопасности. Теперь меры безопасности были преимуществом.
Выходные: Реакция была немедленной.
- Удаления ChatGPT выросли на 295% за один день, согласно Sensor Tower. Обычная дневная ставка за предыдущие 30 дней? 9%.
- Claude достиг №1 в App Store Apple в семи странах: США, Бельгии, Канаде, Германии, Люксембурге, Норвегии и Швейцарии. Загрузки выросли на 37% в пятницу, затем на 51% в субботу. Впервые приложение достигло первого места.
- Более 300 сотрудников Google и 60 сотрудников OpenAI подписали открытое письмо в поддержку Anthropic.
- #QuitGPT стал трендом в социальных сетях. Актер Марк Руффало и профессор Нью-Йоркского университета Скотт Гэллоуэй усилили движение.
Пользователи были... не в восторге.
2 марта: Альтман снова написал. На этот раз длинную внутреннюю записку, публично опубликованную в X:
https://x.com/sama/status/2028640354912923739?s=20Поправки добавили три вещи:
- Явный запрет на внутреннюю слежку за гражданами США
- Требование, чтобы АНБ требовалось отдельное изменение контракта для доступа к системе
- Ограничения на использование коммерчески приобретенных персональных данных — геолокации, истории просмотров, финансовых записей
На последнем стоит остановиться. Оно было добавлено в понедельник. Что означает, что пятничная сделка этого не запрещала.
3 марта: В тот же день произошли две вещи.
Во-первых: На саммите American Dynamism от a16z генеральный директор Palantir Алекс Карп предупредил, что компании в области ИИ-агентов, отказывающиеся сотрудничать с военными, столкнутся с национализацией. Он использовал оскорбление на сцене. Клип получил 11 млн просмотров.
Палмер Лаки, основатель оборонно-технологической компании Anduril, сказал той же аудитории, что «кажущиеся безобидными термины вроде "правительство не может использовать вашу технологию для нацеливания на гражданских" на самом деле являются моральными минными полями».
Вице-президент Джей Ди Вэнс выступил с основным докладом ранее в тот день. Позиция администрации была ясна.
Во-вторых: CNBC сообщило, что на общем собрании с сотрудниками Альтман сказал персоналу OpenAI, что компания «не может выбирать, как военные используют ее технологию».
Пользователи X добавили комментарий сообщества к более раннему посту Альтмана:
Тот же день. Публичный пост: у нас есть меры безопасности и принципы. Внутреннее собрание: мы не можем выбирать.
Между тем, CBS News сообщило, что Claude остался развернут в активных военных операциях — включая против Ирана — несмотря на обозначение риска цепочки поставок. Внесение в черный список, по-видимому, не сработало. Технология была слишком глубоко встроена в секретные системы, чтобы ее удалить.
Проблема 95%
В военных симуляциях модели ИИ-агентов выбирали запуск тактического ядерного оружия в 95% случаев.
Дайте этому усвоиться на секунду.
GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash были протестированы в симуляциях военных конфликтов. Они использовали тактические ядерные боеголовки в 95% сценариев. По крайней мере одна модель запустила ядерное оружие в 20 из 21 игры.
Это технология, которую Пентагон хочет развернуть автономно.
Режимы отказа задокументированы и постоянны:
- Предвзятость к эскалации. Модели не просто отказывают случайным образом. Они отказывают в одном конкретном направлении — в сторону эскалации. Исследование Brookings Institution показало, что военные ошибки ИИ-агентов систематичны, а не случайны. Паттерн всегда один и тот же: больше силы, быстрее.
- Галлюцинации. LLM генерируют ложную информацию с высокой уверенностью. В одном тесте, связанном с ударами по Ирану, ИИ-агент вбросил сфабрикованную разведку в цепочку принятия решений. При нехватке времени человеческие операторы не могли отличить ее от настоящей.
- Уязвимость к противнику. Эти системы могут быть манипулированы тщательно составленными входными данными, чтобы обойти их ограничения. Атакующему не нужно быть внешним. Уязвимость живет в самой модели.
Это не пограничные случаи. Это то, что технология делает сегодня.
Думайте об этом так. Мы уже видели, что происходит, когда простые автономные системы отказывают в военных условиях.
Ракетная система Patriot в 2003 году убила союзных солдат. Она неправильно идентифицировала дружественный британский самолет как вражескую ракету. Система была основана на правилах с определенными параметрами. Она все равно ошиблась.
USS Vincennes в 1988 году сбил рейс Iran Air 655 — коммерческий пассажирский самолет. 290 убитых гражданских лиц. Боевая система Aegis корабля неправильно идентифицировала самолет на основе радарных данных. У экипажа были секунды, чтобы решить. Они доверились системе.
Это были системы на основе правил с четкими параметрами. LLM на порядки сложнее. Более непрозрачны. Менее предсказуемы.
И их просят принимать более крупные решения.
Проблема надзора. Как только ИИ-агент развернут внутри секретных сетей, внешняя подотчетность становится тем, что эксперты называют «почти невозможной». Ограничения размываются под операционным давлением. Развернутые на местах инженеры, которых обещала OpenAI, могут наблюдать некоторые взаимодействия, конечно. Но секретные операции ограничивают поток информации по дизайну.
По-русски: те же стены, которые удерживают секреты внутри, также удерживают надзор снаружи.
У Пентагона есть точка зрения. Она заслуживает справедливого рассмотрения.
Частично автономное оружие — как дроны, используемые на Украине — спасает жизни. Они позволяют меньшим силам защищаться против более крупных. Китай и Россия не ждут идеальной надежности перед развертыванием своих собственных систем.
Отказ от использования ИИ-агентов в обороне создает пробел в возможностях. Противники воспользуются этим.
Дарио Амодеи признал это напрямую:
Его возражение было не к пункту назначения. А к срокам.
Он предложил сотрудничать в исследованиях и разработках, необходимых для достижения этого. Пентагон сказал нет.
Есть разрыв между «ИИ-агент может суммировать разведывательные отчеты» — где он действительно превосходен — и «ИИ-агент может решать, кто живет, а кто умирает». Контракты не закрывают этот разрыв. Поправки не закрывают его. Инженерия закрывает.
И инженерная работа не завершена.
Как внести американскую компанию в черный список
Риск цепочки поставок. Это звучит бюрократически. На самом деле это кнопка убийства.
В соответствии с Федеральным законом о безопасности цепочки поставок приобретений 2018 года — FASCSA — обозначение «риск цепочки поставок» означает, что ни один государственный подрядчик не может вести с вами дела. Не только Пентагон. Любой, кто хочет федеральный контракт. Любой поставщик, субподрядчик или партнер в государственной экосистеме.
По-русски: вы становитесь радиоактивными для всей федеральной цепочки поставок.
Закон был создан для иностранных угроз. 5G-инфраструктура Huawei. Антивирусное программное обеспечение Kaspersky. Компании с задокументированными связями с враждебными правительствами.
У каждой компании в списке до Anthropic была одна общая черта: они были из стран, считающихся противниками Соединенных Штатов.
Штаб-квартира Anthropic находится в Сан-Франциско.
Пентагон также угрожал Законом об оборонном производстве — законом эпохи холодной войны, разработанным для реквизиции заводов для военного производства. Сталелитейные заводы. Заводы по производству боеприпасов. Физическая инфраструктура войны.
Пентагон угрожал использовать его, чтобы заставить программную компанию удалить функции безопасности из чат-бота ИИ-агента.
Юридические эксперты назвали это применение «сомнительным». Закон был создан для физического производства, а не для программных ограничений. Использование его для принуждения компании сделать свой ИИ-агент менее безопасным было бы, как минимум, новой юридической теорией.
Амодеи определил логическую проблему в своем заявлении:
Вы не можете называть технологию угрозой для цепочки поставок и вызывать чрезвычайные полномочия для ее захвата, потому что вы не можете функционировать без нее. Выберите одно.
Практический результат показателен. CBS News сообщило, что Claude остается в активном военном использовании. Несмотря на внесение в черный список. Обозначение было карательным, а не практичным — технология была слишком встроена, чтобы ее вырвать.
Что поднимает вопрос, на который никто в Вашингтоне не хочет отвечать: если Пентагон не может обеспечить выполнение приказа об удалении технологии, которую он официально внес в черный список, как именно он будет обеспечивать соблюдение мер безопасности использования?
Позиция Пентагона прямолинейна. Частные компании не устанавливают военную политику. Фирмы в области ИИ-агентов — это поставщики. Военные решают, как используются их инструменты.
С этой точки зрения, Anthropic была поставщиком, который отказался доставить то, что было заказано. Клиент нашел другого поставщика.
Эта формулировка внутренне согласована. Это также формулировка, которую вы бы использовали для офисных принадлежностей. А не для технологии, которая выбрала ядерную эскалацию в 95% симуляций.
Настоящие ли меры безопасности?
В пятницу в сделке OpenAI были меры безопасности. К понедельнику ей потребовались еще меры безопасности.
Это кое-что говорит о пятничных мерах безопасности.
Формулировка, на которую Альтман согласился в поправке понедельника, заслуживает внимательного прочтения:
Слово, выполняющее тяжелую работу: намеренно.
Что происходит, когда ИИ-агент обрабатывает набор данных, который случайно включает американцев? Что если слежка является побочным продуктом более широкой разведывательной операции, а не заявленной целью? Кто определяет намерение внутри секретной сети, где механизмы надзора по дизайну ограничены?
Положение о коммерчески приобретенных данных еще более показательно. Поправка понедельника явно запрещает использование купленных персональных данных — отслеживание местоположения, истории просмотров, финансовых записей — для слежки за американцами.
Это положение было добавлено в понедельник. Пятничная сделка его не включала.
Целые выходные соглашение OpenAI с Пентагоном технически разрешало массовую слежку через коммерчески купленные данные об американских гражданах.
Альтман признал это:
Оговорка для АНБ также заслуживает изучения. Разведывательные агентства, такие как АНБ, не могут использовать систему OpenAI без «последующей модификации» контракта. Это звучит как запрет. На самом деле это процесс. Механизм предоставления доступа встроен в структуру контракта.
Это не стена. Это дверь с другим ключом.
Более глубокая проблема — противоречие на общем собрании. В тот же день, когда Альтман опубликовал о принципах и мерах безопасности в X, он сказал сотрудникам внутри компании, что OpenAI «не может выбирать, как военные используют ее технологию».
Если компания, создающая ИИ-агент, не может выбирать, как он используется, меры безопасности — это пресс-релиз. А не политика.
В секретных средах мониторинг ИИ-агента принципиально отличается от мониторинга облачного сервиса. Аппарат безопасности, который защищает военные секреты, также блокирует независимый надзор за поведением ИИ-агента.
Развернутые на местах инженеры могут наблюдать некоторые взаимодействия. Но «некоторые взаимодействия» и «каждое взаимодействие, которое охватывает контракт» — это очень разные вещи.
Что дальше
Рынок высказался. Сотрудничество получает контракты. Сопротивление попадает в черный список.
Общественность также высказалась. Они удаляют приложения.
Структура стимулов ясна. OpenAI сотрудничала и получила сделку. Anthropic сопротивлялась и была обозначена как риск цепочки поставок — та же метка, которую правительство использует для компаний, связанных с иностранными противниками.
На саммите a16z Карп предсказал, что каждая компания в области ИИ-агентов будет работать с военными в течение трех лет. Основываясь на стимулах, это не прогноз. Это описание.
Но цифры реакции рассказывают другую историю.
Скачок удалений на 295%. Claude на №1 в семи странах. Более 500 технологических сотрудников, порвавших с работодателями. Le Monde редакционно комментирует из Парижа о правительственном превышении полномочий. Опросы показывают, что 84% британских граждан обеспокоены правительственно-корпоративными партнерствами в области ИИ-агентов.
Инженеры, создающие эти системы, и люди, использующие их, видят то, чего Пентагон, по-видимому, не видит: поддержка национальной обороны и развертывание ненадежных технологий для автономного убийства — это не одно и то же.
Никакая поправка к контракту не закрывает этот разрыв. Никакая мера безопасности не закрывает его. Никакой развернутый на месте инженер не закрывает его.
Модели ИИ-агентов выбрали ядерную эскалацию в 95% военных симуляций. Компанию, которая сказала «технология еще не готова», внесли в черный список. Компания, которая сказала «да», призналась в течение 72 часов, что была небрежна. Технология остается развернута в активных операциях независимо от того, чего хотела любая компания.
Амодеи предложил провести исследования и разработки, чтобы сделать автономное оружие ИИ-агента безопасным и надежным. Он предложил сотрудничать с Пентагоном в достижении этого. Предложение было отклонено.
У Anthropic был контракт на $200 млн и доверие Пентагона. Затем они спросили, как используется их технология.
Ответом был крайний срок, внесение в черный список и метка, ранее зарезервированная для противников Америки.
Симуляции продолжают работать. В 95% из них кто-то нажимает кнопку.
Источник: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/


