Армия США задействовала Claude от Anthropic в операции по захвату президента Венесуэлы Николаса Мадуро. Об этом пишет WSJ со ссылкой на источники.
Миссия включала бомбардировку нескольких объектов в Каракасе.
Использование модели в подобных целях противоречит публичной политике Anthropic. Правила компании прямо запрещают применять ИИ для насилия, разработки вооружений или организации слежки.
«Мы не можем комментировать, использовался ли Claude или какая-либо другая модель в конкретной операции — секретной или иной. Любое применение LLM — как в частном секторе, так и в госструктурах — должно соответствовать нашей политике, регулирующей способы развертывания нейросети. Мы тесно сотрудничаем с партнерами, чтобы обеспечить соблюдение правил», — заявил представитель Anthropic.
Внедрение Claude в структуры Минобороны стало возможным благодаря партнерству Anthropic с Palantir Technologies. Программное обеспечение последней широко используется военными и федеральными правоохранительными органами.
После рейда сотрудник Anthropic поинтересовался у коллеги из Palantir, какую именно роль нейросеть сыграла в операции по захвату Мадуро, пишет WSJ. Представитель стартапа заявил, что компания не обсуждала применение своих моделей в конкретных миссиях «ни с какими партнерами, включая Palantir», ограничиваясь лишь техническими вопросами.
«Anthropic привержена использованию передового ИИ в поддержку национальной безопасности США», — добавил представитель фирмы.
Представитель Пентагона Шон Парнелл заявил о пересмотре отношений с ИИ-лабораторией.
«Нашей стране нужны партнеры, готовые помогать бойцам побеждать в любой войне», — сказал он.
В июле 2025 года Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства планировало использовать их разработки для создания агентных систем безопасности.
Однако уже в январе 2026 года WSJ сообщила о риске разрыва соглашения с Anthropic. Разногласия возникли из-за жесткой этической политики стартапа. Правила запрещают использовать модель Claude для массовой слежки и автономных летальных операций, что ограничивает ее применение спецслужбами вроде ICE и ФБР.
Недовольство чиновников усилилось на фоне интеграции чат-бота Grok в сеть Пентагона. Министр обороны Пит Хегсет, комментируя партнерство с xAI, подчеркнул, что ведомство «не будет использовать модели, которые не позволяют вести войны».
Axios со ссылкой на источники написали, что Пентагон давит на четыре крупные ИИ-компании, чтобы те разрешили армии США использовать технологии для «всех законных целей». Речь идет в том числе о разработке оружия, сборе разведданных и боевых операциях.
Anthropic отказывается снять ограничения на слежку за гражданами США и создание полностью автономного вооружения. Переговоры зашли в тупик, однако быстро заменить Claude сложно из-за технологического превосходства модели в специфических государственных задачах.
Помимо чат-бота Anthropic Пентагон использует ChatGPT от OpenAI, Gemini от Google и Grok от xAI в несекретных задачах. Все три согласились ослабить ограничения, действующие для обычных пользователей.
Сейчас обсуждается перенос LLM в секретный контур и их применение «для всех законных целей». Одна из трех компаний уже согласилась это сделать, другие две «проявляют большую гибкость» по сравнению с Anthropic.
США — не единственная страна, активно внедряющая искусственный интеллект в оборонный сектор.
В июне 2024 года в КНР создали представили ИИ-командующего для масштабных военных симуляций с участием всех видов войск НОАК. Виртуальный стратег наделен широкими полномочиями, быстро обучается и совершенствует тактику в ходе цифровых учений.
В ноябре СМИ сообщили, что китайские исследователи адаптировали модель Llama 13B от Meta для создания инструмента ChatBIT. Нейросеть оптимизировали для сбора и анализа разведывательных данных, а также поддержки принятия оперативных решений.
Нью-Дели также сделал ставку на ИИ как драйвер национальной безопасности. Правительство выработало стратегии и программы на национальном уровне, создало специальные институты и органы для внедрения ИИ, а также запустило проекты по применению технологии в различных отраслях.
Лондон закрепил за искусственным интеллектом статус приоритетного направления. В «Стратегии ИИ для обороны» (2022) ведомство рассматривает ИИ как ключевой компонент будущих вооруженных сил. В «Стратегическом оборонном обзоре» (2025) технология названа фундаментальным элементом современной войны.
Если раньше искусственный интеллект в военном контексте воспринимался как вспомогательный инструмент, то теперь британские Вооруженные силы планируют трансформацию в «технологически интегрированные силы», где ИИ-системы должны применяться на всех уровнях — от штабной аналитики до поля боя.
Напомним, в марте 2025 года Пентагон анонсировал использование ИИ-агентов для моделирования столкновений с иностранными противниками.
Подписывайтесь на ForkLog в социальных сетях
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!
Источник


![[Перевод] Базовая модель для персонализированных рекомендаций Netflix](https://mexc-rainbown-activityimages.s3.ap-northeast-1.amazonaws.com/banner/F20250611171030266ftMnBKyEGYNUiG.png)