Метка «риск цепочки поставок», подтвержденная в заявлении Anthropic, вступает в силу немедленно и запрещает государственным подрядчикам использовать технологию AnthropicМетка «риск цепочки поставок», подтвержденная в заявлении Anthropic, вступает в силу немедленно и запрещает государственным подрядчикам использовать технологию Anthropic

Пентагон обозначил Anthropic как риск цепочки поставок

2026/03/06 12:51
3м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу crypto.news@mexc.com

Пентагон в четверг, 5 марта, официально присвоил лаборатории искусственного интеллекта Anthropic статус риска цепочки поставок, ограничив использование технологии, которая, по словам источника, использовалась для военных операций в Иране.

Статус "риска цепочки поставок", подтвержденный в заявлении Anthropic, вступает в силу немедленно и запрещает государственным подрядчикам использовать технологию Anthropic в их работе для вооруженных сил США.

Однако компании по-прежнему могут использовать Claude от Anthropic в других проектах, не связанных с Пентагоном, написал в заявлении генеральный директор Дарио Амодеи. Он сказал, что это обозначение имеет "узкую сферу применения" и что ограничения применяются только к использованию ИИ Anthropic в контрактах Пентагона.

"Это явно применяется только к использованию Claude клиентами в качестве непосредственной части контрактов с Министерством войны, а не ко всему использованию Claude клиентами, имеющими такие контракты".

Обозначение рисков следует за многомесячным спором из-за настойчивости компании на мерах предосторожности, которые, по мнению Министерства обороны, которое администрация Трампа называет Министерством войны, зашли слишком далеко. В своем заявлении Амодеи повторил, что компания будет оспаривать это обозначение в суде.

В последние дни Anthropic и Пентагон обсуждали возможные планы по прекращению использования Claude Пентагоном, сказал Амодеи в заявлении в четверг. Стороны обсудили, как Anthropic может продолжать работать с военными без демонтажа своих мер безопасности, добавил он.

Однако в сообщении в X поздно вечером в четверг руководитель технологического отдела (CTO) Пентагона Эмиль Майкл заявил, что активных переговоров Министерства обороны с Anthropic не ведется.

Амодеи также извинился за внутреннюю служебную записку, опубликованную в среду технологическим новостным сайтом The Information. В записке, первоначально написанной в прошлую пятницу, Амодеи сказал, что представителям Пентагона компания не нравится отчасти потому, что "мы не воздавали Трампу хвалу в стиле диктатора".

Публикация внутренней служебной записки произошла в то время, когда инвесторы Anthropic спешили сдержать ущерб, причиненный конфликтом компании с Пентагоном.

Министерство обороны не сразу ответило на запросы о комментариях.

Это действие представляет собой чрезвычайное порицание со стороны Соединенных Штатов в отношении американской технологической компании, которая раньше своих конкурентов начала работать с Пентагоном. Это действие происходит в то время, когда ведомство продолжает полагаться на технологию Anthropic для поддержки военных операций, в том числе в Иране, по словам человека, знакомого с этим вопросом.

Claude, вероятно, используется для анализа разведданных и помощи в оперативном планировании.

Представитель Microsoft заявил, что юристы компании изучили это обозначение и пришли к выводу, что: "Продукты Anthropic, включая Claude, могут оставаться доступными для наших клиентов — за исключением Министерства войны — через такие платформы, как M365, GitHub и Microsoft AI Foundry".

Microsoft может продолжать работать с Anthropic над проектами, не связанными с обороной, добавил представитель.

Amazon, инвестор Anthropic и крупный клиент модели Claude компании, не сразу ответил на запрос о комментарии в нерабочее время.

Maven Smart Systems от Palantir — программная платформа, которая предоставляет военным анализ разведданных и наведение оружия — использует множественные запросы и рабочие процессы, созданные с использованием кода Claude от Anthropic, ранее сообщало Reuters.

Anthropic была самой агрессивной среди своих конкурентов в ухаживании за должностными лицами национальной безопасности США. Но компания и Пентагон месяцами находились в разногласиях по поводу того, как военные могут использовать ее технологию на поле боя. Этот конфликт вышел на публичное обозрение в начале этого года.

Anthropic отказалась отступить от запретов на использование своего ИИ Claude для управления автономным оружием и массовой слежки США. Пентагон отреагировал, заявив, что должен иметь возможность использовать эту технологию по мере необходимости, пока это соответствует законодательству США.

Статус "риска цепочки поставок" теперь дает Anthropic статус, который Вашингтон до сих пор обычно использовал для иностранных противников. Аналогичные действия США были предприняты для удаления китайского технологического гиганта Huawei из цепочек поставок Пентагона. – Rappler.com

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.