Компания Anthropic обвинила три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — в масштабной кампании по использованию Claude для улучшения собственных Компания Anthropic обвинила три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — в масштабной кампании по использованию Claude для улучшения собственных

Anthropic обвинила китайские ИИ-лаборатории в «краже» данных

2026/02/24 16:44
3м. чтение

Anthropic обвинила китайские ИИ-лаборатории в «краже» данных

Компания Anthropic обвинила три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — в масштабной кампании по использованию Claude для улучшения собственных моделей.

Лаборатории из КНР сгенерировали более 16 млн взаимодействий с чат-ботом через примерно 24 000 мошеннических аккаунтов, нарушив условия использования и региональные ограничения.

Фирмы применили дистилляцию — обучение менее мощной нейросети на выводах более сильной.

Это широко применяемый и легитимный метод. Ведущие ИИ-лаборатории регулярно дистиллируют собственные модели, чтобы создавать их компактные и дешевые версии для клиентов.

В компании подчеркнули, что окно для реагирования на подобную «кражу» узкое, а угроза выходит за пределы одной компании или региона. Для ее устранения потребуются быстрые и скоординированные действия со стороны индустрии, регуляторов и мирового ИИ-сообщества.

Почему это опасно

В Anthropic объяснили риски подобного подхода. Незаконно дистиллированные модели не сохраняют необходимые защитные механизмы — это создает проблемы для национальной безопасности. 

Американские компании внедряют системы для препятствия применения искусственного интеллекта в разработке биологического оружия, вредоносных кибератак и иных опасных действий. Созданные через незаконную дистилляцию модели не получают подобных ограничений.

Иностранные лаборатории могут интегрировать незащищенные возможности в военные и разведывательные системы, позволяя авторитарным правительствам использовать передовой ИИ для кибератак, дезинформации и массовой слежки, добавили в компании.

Способы борьбы

Эксперты Anthropic поддержали экспортные ограничения для сохранения лидерства США в ИИ. По их словам, дистилляционные атаки подрывают эти меры, позволяя зарубежным лабораториям сокращать технологический разрыв.

Anthropic назвала собственные методы борьбы:

  • улучшение системы обнаружения паттернов дистилляции;
  • обмен техническими индикаторами с другими лабораториям и облачными провайдерами;
  • усиление верификации образовательных и исследовательских аккаунтов;
  • применение контрмер, снижающих эффективность незаконной дистилляции.

Это не первое подобное обвинение. В январе 2025 года вскоре после взрывного выхода DeepSeek-R1 компанию заподозрили в краже данных у OpenAI.

Продолжение борьбы с Пентагоном

CEO Anthropic Дарио Амодеи встретится с министром обороны Питом Хегсетом в Пентагоне для обсуждения способов использования ИИ-моделей компании военными.

В последнее время между сторонами возникли разногласия — Anthropic выступает против применения искусственного интеллекта для массовой слежки за гражданами США и создания автономного оружия. В Минобороны ясно дали понять, что намерены использовать LLM «для всех законных сценариев» без ограничений.

Дошло до того, что в Пентагоне заявили о возможном расторжении договора с Anthropic.

ИИ-сканер уязвимостей

Акции ведущих публичных компаний в сфере кибербезопасности упали после запуска Anthropic инструмента Claude Code Security — это ИИ-сканер уязвимостей в коде.

На сайте компании говорится, что новый сервис «анализирует всю кодовую базу на наличие уязвимостей, проверяет каждую находку для минимизации ложных срабатываний и предлагает исправления».

Claude проводит анализ «как опытный исследователь безопасности»: понимает контекст, отслеживает потоки данных, обнаруживает уязвимости.

По информации VentureBeat, Claude Opus 4.6 выявила более 500 критических уязвимостей, которые сохранялись десятилетиями, несмотря на проверки экспертов.

Пять крупнейший по капитализации американских публичных компаний в области IT-безопасности продемонстрировали двузначное снижение котировок за последние пять дней на фоне появления ИИ-конкурента:

  • Palo Alto Networks — -14%;
  • CrowdStrike — -18%;
  • Fortinet — -12%;
  • Cloudflare — -18%;
  • Zscaler — -19%.
График ценообразования акций Palo Alto Networks. Источник: Yahoo Finance.

Аналитики Wedbush заявили, что распродажа бумаг связана с опасениями вокруг так называемого AI Ghost Trade. По их мнению, реакция рынка ошибочна, а Palo Alto, CrowdStrike и Zscale докажут свою эффективность в 2026 году.

Напомним, в феврале OpenAI совместно с Paradigm представила EVMbench — бенчмарк для оценки способности ИИ-агентов выявлять, исправлять и эксплуатировать бреши в смарт-контрактах.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Facebook X
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

Возможности рынка
Логотип Polytrade
Polytrade Курс (TRADE)
$0.03211
$0.03211$0.03211
-6.54%
USD
График цены Polytrade (TRADE) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.