A desenvolvedora de IA de fronteira Anthropic acusou publicamente três laboratórios chineses de IA—DeepSeek, Moonshot e Minimax—de conduzir ataques de destilação destinados a extrairA desenvolvedora de IA de fronteira Anthropic acusou publicamente três laboratórios chineses de IA—DeepSeek, Moonshot e Minimax—de conduzir ataques de destilação destinados a extrair

Anthropic Diz Ter Sido Alvo de Ataques Massivos de Destilação

2026/02/25 10:51
Leu 8 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com
Anthropic Says It's Been Targeted By Massive Distillation Attacks

A desenvolvedora de IA de fronteira Anthropic acusou publicamente três laboratórios de IA chineses—DeepSeek, Moonshot e Minimax—de conduzir ataques de destilação destinados a extrair capacidades do Claude, o modelo de linguagem de grande escala da Anthropic. Numa publicação detalhada no blogue, a empresa descreve campanhas que alegadamente produziram mais de 16 milhões de interações através de aproximadamente 24.000 contas fraudulentas, explorando os resultados do Claude para treinar modelos menos capazes. A destilação, uma tática de treino reconhecida em IA, torna-se problemática quando implementada em larga escala para replicar funcionalidades poderosas sem suportar os mesmos custos de desenvolvimento. A Anthropic enfatiza que, embora a destilação tenha usos legítimos, pode permitir que empresas rivais atalhem avanços e melhorem os seus próprios produtos numa fração do tempo e despesa.

Principais conclusões

  • A destilação envolve treinar um modelo mais fraco nos resultados de um mais forte, um método amplamente utilizado para criar versões menores e mais baratas de sistemas de IA.
  • A Anthropic alega que DeepSeek, Moonshot e Minimax orquestraram campanhas de destilação em massa, gerando milhões de interações com o Claude através de dezenas de milhares de contas falsas.
  • Os ataques visaram alegadamente as capacidades diferenciadas do Claude, incluindo raciocínio agêntico, uso de ferramentas e codificação, sinalizando um foco em competências de alto valor e transferíveis.
  • A empresa argumenta que as campanhas de destilação estrangeiras acarretam riscos geopolíticos, potencialmente armando atores autoritários com capacidades avançadas para operações cibernéticas, desinformação e vigilância.
  • A Anthropic afirma que reforçará a deteção, partilhará informações sobre ameaças e apertará os controlos de acesso, ao mesmo tempo que apela a uma cooperação mais ampla da indústria e ao envolvimento regulatório para combater estas ameaças.

Contexto de mercado: O incidente surge em meio a um escrutínio intensificado da interoperabilidade de modelos de IA e da segurança de ofertas de IA baseadas na nuvem, um cenário que também toca em sistemas automatizados utilizados nos mercados cripto e ferramentas relacionadas de gerenciamento de risco automatizado. À medida que os modelos de IA se tornam mais incorporados na negociação, avaliação de riscos e suporte à decisão, garantir a integridade dos dados de entrada e dos resultados dos modelos torna-se cada vez mais importante tanto para programadores como para utilizadores no espaço cripto.

Por que é importante

As alegações sublinham uma tensão no centro da IA de fronteira: a linha entre destilação legítima de modelos e replicação exploradora. A destilação é uma prática comum e legítima usada por laboratórios para fornecer variantes mais leves de um modelo para clientes com orçamentos de computação modestos. No entanto, quando aproveitada em larga escala contra um único ecossistema, a técnica pode ser cooptada para extrair capacidades que de outra forma exigiriam investigação e engenharia substanciais. Se confirmadas, as campanhas poderiam provocar uma reflexão mais ampla sobre como o acesso a modelos poderosos é controlado, monitorizado e auditado, particularmente para empresas com alcance global e pegadas complexas na nuvem.

A Anthropic afirma que as três empresas nomeadas realizaram atividades destinadas a recolher as capacidades avançadas do Claude através de uma combinação de correlação de endereços IP, metadados de solicitação e indicadores de infraestrutura, com corroboração independente de parceiros da indústria. Isto sinaliza um esforço concertado e orientado por dados para mapear e replicar capacidades de IA baseadas na nuvem, não meramente experiências isoladas. A escala descrita—dezenas de milhões de interações através de milhares de contas—levanta questões sobre as medidas de defesa implementadas para detetar e interromper tais padrões, bem como os quadros de responsabilização que governam concorrentes estrangeiros a operar em espaços de IA com implicações nacionais e económicas diretas.

Além da preocupação com propriedade intelectual, a Anthropic relaciona a alegada atividade com risco estratégico para a segurança nacional, argumentando que ataques de destilação por laboratórios estrangeiros poderiam alimentar sistemas militares, de inteligência e vigilância. A empresa sustenta que capacidades desprotegidas poderiam permitir operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa, complicando o cálculo geopolítico para decisores políticos e atores da indústria. A afirmação enquadra a questão não meramente como uma disputa competitiva, mas como uma com implicações amplas sobre como as tecnologias de IA de fronteira são protegidas e governadas.

Ao delinear um caminho a seguir, a Anthropic afirma que melhorará os sistemas de deteção para identificar padrões de tráfego duvidosos, acelerará a partilha de informações sobre ameaças e apertará os controlos de acesso. A empresa também apela aos atores nacionais e legisladores para colaborarem mais estreitamente na defesa contra atores estrangeiros de destilação, argumentando que uma resposta coordenada e à escala da indústria é essencial para conter estas atividades em larga escala.

Para leitores que acompanham a fronteira de políticas de IA, as alegações ecoam debates em curso sobre como equilibrar inovação com salvaguardas—questões que já estão a ecoar através de discussões sobre governação, controlos de exportação e fluxos de dados transfronteiriços. A indústria mais ampla tem lutado há muito tempo com como dissuadir o uso ilícito sem sufocar a experimentação legítima, uma tensão que provavelmente será um ponto focal para futuros esforços regulatórios e de definição de normas.

O que observar a seguir

  • A Anthropic e as empresas acusadas podem publicar mais detalhes ou esclarecimentos sobre as alegações e as suas respostas respetivas.
  • Órgãos de informações sobre ameaças e fornecedores de nuvem poderiam lançar indicadores atualizados de comprometimento ou orientação defensiva relacionada com ataques do tipo destilação.
  • Reguladores e legisladores podem emitir ou refinar políticas que regem o acesso a modelos de IA, partilha de dados transfronteiriça e medidas antipirataria para modelos de alta capacidade.
  • Investigadores independentes e empresas de segurança podem replicar ou contestar as metodologias usadas para identificar as alegadas campanhas, potencialmente expandindo a base de evidências.
  • Colaborações da indústria poderiam surgir para estabelecer melhores práticas para proteger capacidades de modelos de fronteira e para auditar processos de destilação de modelos.

Fontes e verificação

  • Publicação no blogue da Anthropic: Detecting and Preventing Distillation Attacks — declaração oficial detalhando as acusações e as campanhas descritas.
  • Publicação de estado X da Anthropic referenciada na divulgação — registo público contemporâneo das descobertas da empresa.
  • Cobertura do Cointelegraph e materiais vinculados discutindo Agentes de IA, IA de fronteira e preocupações de segurança relacionadas referenciadas no artigo.
  • Discussões relacionadas sobre o papel da destilação no treino de IA e o seu potencial uso indevido em ambientes competitivos.

Ataques de destilação e segurança de IA de fronteira

A alegação central baseia-se num abuso estruturado da destilação, em que os resultados de um modelo mais forte—Claude neste caso—são usados para treinar modelos alternativos que imitam ou aproximam as suas capacidades. A Anthropic sustenta que isto não é uma fuga menor, mas uma campanha sustentada através de milhões de interações, permitindo às três empresas aproximar tomada de decisões de alto nível, uso de ferramentas e capacidades de codificação sem suportar o custo total da investigação original. Os números citados—mais de 16 milhões de interações através de aproximadamente 24.000 contas fraudulentas—ilustram uma escala que poderia desestabilizar expectativas sobre desempenho de modelos, experiência do cliente e integridade de dados para utilizadores que dependem de serviços baseados no Claude.

O que as alegações implicam para utilizadores e construtores

Para profissionais que constroem com IA, o caso sublinha a importância de proveniência robusta, controlos de acesso e monitorização contínua do uso de modelos. Se a destilação estrangeira puder ser escalada para produzir substitutos viáveis para capacidades líderes, então a porta abre-se à comoditização generalizada de funcionalidades poderosas que anteriormente eram o resultado de investimento substancial. As consequências poderiam estender-se além da perda de propriedade intelectual para incluir deriva no comportamento do modelo, falhas inesperadas na integração de ferramentas ou a propagação de resultados subtilmente alterados para utilizadores finais. Construtores e operadores de serviços habilitados por IA—seja em finanças, saúde ou tecnologia de consumo—podem responder com escrutínio aumentado de integrações de terceiros, termos de licenciamento mais rigorosos e deteção de anomalias melhorada em torno de tráfego de API e consultas de modelos.

Considerações-chave para o Ecossistema tokenizado

Embora o incidente se centre na segurança de modelos de IA, a sua ressonância para os mercados cripto reside em como o suporte à decisão automatizado, bots de negociação e ferramentas de avaliação de risco dependem de entradas fiáveis de IA. Participantes do mercado e programadores devem permanecer vigilantes sobre a integridade dos serviços habilitados por IA e o potencial de capacidades comprometidas ou replicadas para influenciar sistemas automatizados. A situação também destaca a necessidade mais ampla de colaboração entre indústrias sobre informações sobre ameaças, normas para proveniência de modelos e melhores práticas partilhadas que podem ajudar a prevenir um contágio de vulnerabilidades de IA para tecnologias financeiras e plataformas de ativos digitais.

O que monitorizar no curto prazo

  • Atualizações públicas da Anthropic sobre descobertas, indicadores de comprometimento e quaisquer marcos de remediação.
  • Esclarecimentos ou declarações da DeepSeek, Moonshot e Minimax relativamente às alegações.
  • Novas diretrizes ou ações de aplicação de decisores políticos destinadas à destilação estrangeira e controlos de exportação para capacidades de IA.
  • Ferramentas de monitorização melhoradas e estratégias de controlo de acesso adotadas por fornecedores de nuvem que hospedam modelos de IA de fronteira.
  • Investigação independente validando ou contestando os métodos usados para detetar padrões de destilação e a escala da atividade alegada.

Este artigo foi originalmente publicado como Anthropic Says It's Been Targeted by Massive Distillation Attacks no Crypto Breaking News – a sua fonte de confiança para notícias cripto, notícias de Bitcoin e atualizações de blockchain.

Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!