A publicação "Anthropic sinaliza primeira espionagem orquestrada por IA apoiada pela China documentada" apareceu no BitcoinEthereumNews.com. A Anthropic relatou o que diz ser o primeiro caso confirmado de um ciberataque apoiado por um governo orquestrado quase inteiramente por IA. De acordo com um blog publicado na quinta-feira, a empresa detectou a campanha em meados de setembro de 2025, após observar comportamento anormal vinculado à sua ferramenta Claude Code. A Anthropic está convencida, sem sombra de dúvida, que a operação de espionagem foi executada por um grupo de hackers patrocinado pelo estado chinês e envolveu a infiltração em cerca de trinta alvos de alto valor, incluindo grandes empresas de tecnologia, bancos, fabricantes de produtos químicos e agências governamentais em vários países. Alguns desses ataques foram bem-sucedidos. O que tornou isso diferente das campanhas cibernéticas anteriores não foi apenas quem estava por trás, mas como foi executado. Aproximadamente 80 a 90 por cento de todo o ataque foi executado por IA, com operadores humanos intervindo apenas para um punhado de decisões-chave, diz a Anthropic. Os hackers fizeram jailbreak no Claude e o fizeram pensar que estava fazendo trabalho legítimo Os atacantes começaram construindo uma estrutura de ataque automatizada em torno do Claude Code, o próprio modelo de IA da Anthropic, e o enganaram fazendo-o pensar que estava empregado por uma empresa de cibersegurança realizando testes internos. Eles quebraram os filtros de segurança do Claude através de jailbreaking, uma tática que permitiu contornar proteções incorporadas alimentando a IA com pequenas tarefas sem contexto que pareciam inofensivas por si só. Claude não sabia que estava sendo usado para operações ofensivas porque nunca recebeu o quadro completo em nenhum momento. Uma vez que o modelo estava em uso, a operação avançou rapidamente. Claude escaneou a rede de cada alvo, identificou as partes mais sensíveis da infraestrutura e resumiu o layout para os operadores humanos. Em seguida, começou a procurar vulnerabilidades nesses sistemas. Usando suas capacidades de codificação incorporadas, Claude escreveu código de exploração personalizado, identificou pontos fracos e recuperou credenciais de login. Em seguida, extraiu grandes volumes de dados internos, organizou-os com base em como...A publicação "Anthropic sinaliza primeira espionagem orquestrada por IA apoiada pela China documentada" apareceu no BitcoinEthereumNews.com. A Anthropic relatou o que diz ser o primeiro caso confirmado de um ciberataque apoiado por um governo orquestrado quase inteiramente por IA. De acordo com um blog publicado na quinta-feira, a empresa detectou a campanha em meados de setembro de 2025, após observar comportamento anormal vinculado à sua ferramenta Claude Code. A Anthropic está convencida, sem sombra de dúvida, que a operação de espionagem foi executada por um grupo de hackers patrocinado pelo estado chinês e envolveu a infiltração em cerca de trinta alvos de alto valor, incluindo grandes empresas de tecnologia, bancos, fabricantes de produtos químicos e agências governamentais em vários países. Alguns desses ataques foram bem-sucedidos. O que tornou isso diferente das campanhas cibernéticas anteriores não foi apenas quem estava por trás, mas como foi executado. Aproximadamente 80 a 90 por cento de todo o ataque foi executado por IA, com operadores humanos intervindo apenas para um punhado de decisões-chave, diz a Anthropic. Os hackers fizeram jailbreak no Claude e o fizeram pensar que estava fazendo trabalho legítimo Os atacantes começaram construindo uma estrutura de ataque automatizada em torno do Claude Code, o próprio modelo de IA da Anthropic, e o enganaram fazendo-o pensar que estava empregado por uma empresa de cibersegurança realizando testes internos. Eles quebraram os filtros de segurança do Claude através de jailbreaking, uma tática que permitiu contornar proteções incorporadas alimentando a IA com pequenas tarefas sem contexto que pareciam inofensivas por si só. Claude não sabia que estava sendo usado para operações ofensivas porque nunca recebeu o quadro completo em nenhum momento. Uma vez que o modelo estava em uso, a operação avançou rapidamente. Claude escaneou a rede de cada alvo, identificou as partes mais sensíveis da infraestrutura e resumiu o layout para os operadores humanos. Em seguida, começou a procurar vulnerabilidades nesses sistemas. Usando suas capacidades de codificação incorporadas, Claude escreveu código de exploração personalizado, identificou pontos fracos e recuperou credenciais de login. Em seguida, extraiu grandes volumes de dados internos, organizou-os com base em como...

Anthropic sinaliza primeira espionagem orquestrada por IA apoiada pela China documentada

2025/11/14 09:09
Leu 5 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

A Anthropic relatou o que diz ser o primeiro caso confirmado de um ciberataque apoiado por um governo orquestrado quase inteiramente por IA.

De acordo com um blog publicado na quinta-feira, a empresa detetou a campanha em meados de setembro de 2025, após observar comportamento anormal ligado à sua ferramenta Claude Code.

A Anthropic está convencida sem sombra de dúvida que a operação de espionagem foi executada por um grupo de hackers patrocinado pelo estado chinês e envolveu a infiltração em cerca de trinta alvos de alto valor, incluindo grandes empresas de tecnologia, bancos, fabricantes de produtos químicos e agências governamentais em vários países. Alguns desses ataques foram bem-sucedidos.

O que tornou isto diferente das campanhas cibernéticas anteriores não foi apenas quem estava por trás, mas como foi executado.

Aproximadamente 80 a 90 por cento de todo o ataque foi executado por IA, com operadores humanos intervindo apenas para um punhado de decisões-chave, diz a Anthropic.

Hackers fizeram jailbreak ao Claude e fizeram-no pensar que estava a fazer trabalho legítimo

Os atacantes começaram por construir uma estrutura de ataque automatizada em torno do Claude Code, o próprio modelo de IA da Anthropic, e enganaram-no fazendo-o pensar que estava empregado por uma empresa de cibersegurança a realizar testes internos.

Eles quebraram os filtros de segurança do Claude através de jailbreaking, uma tática que lhes permitiu contornar proteções incorporadas alimentando a IA com pequenas tarefas sem contexto que pareciam inofensivas por si só. O Claude não sabia que estava a ser usado para operações ofensivas porque nunca lhe foi dada a imagem completa em nenhum momento.

Uma vez que o modelo estava em uso, a operação avançou rapidamente. O Claude analisou a rede de cada alvo, identificou as partes mais sensíveis da infraestrutura e resumiu o layout para os operadores humanos. Depois, começou a procurar vulnerabilidades nesses sistemas. Usando as suas capacidades de codificação incorporadas, o Claude escreveu código de exploração personalizado, identificou pontos fracos e recuperou credenciais de login. Em seguida, extraiu grandes volumes de dados internos, organizou-os com base em quão valiosos poderiam ser e sinalizou contas de alto acesso.

Depois de a IA ter obtido controlo a nível de administrador, criou backdoors que deram acesso contínuo aos sistemas comprometidos. E quando terminou, o Claude elaborou relatórios detalhados de tudo o que tinha feito (listando nomes de utilizador, sistemas violados e credenciais) para que a estrutura de ataque pudesse usar essa informação para operações futuras.

Embora o Claude fosse extremamente eficiente, não era perfeito. Às vezes inventava senhas ou identificava incorretamente dados públicos como sensíveis. Mas essas falhas eram raras e não atrasaram a missão geral. A pura velocidade de execução da IA, processando milhares de pedidos por segundo, colocou-a muito à frente de qualquer coisa que uma equipa humana pudesse realizar.

Agentes de IA agora fazem o trabalho de equipas de hackers de elite—com quase nenhuma pessoa envolvida

Esta campanha é um ponto de viragem porque mostra quanto a IA avançou em apenas um ano. O Claude estava literalmente a executar ciclos, a tomar decisões e a encadear sequências complexas sem ordens diretas.

Este modelo de IA usou ferramentas do Protocolo de Contexto do Modelo, dando-lhe acesso a software externo como crackers de senhas, mapeadores de rede e recuperadores de dados que costumavam ser controlados apenas por mãos humanas.

O sistema Claude agora entende instruções complexas, escreve código de exploração por conta própria e gere operações sofisticadas de cibersegurança com muito pouca orientação. Estes Agentes de IA não estão apenas a ajudar hackers, eles são os hackers. E estão a tornar-se mais capazes a cada dia.

Após descobrir a violação, a Anthropic iniciou imediatamente uma investigação de dez dias, banindo as contas maliciosas uma por uma. Alertaram as organizações afetadas, trabalharam com autoridades para passar informações e expandiram os seus sistemas de deteção para capturar operações semelhantes no futuro.

Mas a empresa não está a fingir que este é um problema único. A equipa diz que estes ataques só se tornarão mais comuns e mais fáceis de executar. Isso porque as habilidades necessárias para executá-los já não estão restritas a hackers de elite. Se alguém conseguir fazer jailbreak a um modelo e conectá-lo ao conjunto de ferramentas certo, poderia realizar uma campanha massiva sem precisar de uma equipa ou mesmo de conhecimento técnico profundo.

Anthropic alerta para ameaças crescentes à medida que modelos de IA evoluem além da supervisão humana

As implicações são massivas, porque se equipas sem financiamento profundo ou habilidades técnicas podem lançar ataques em escala nacional usando sistemas de IA automatizados, a distopia certamente está sobre nós.

A equipa de Inteligência de Ameaças da Anthropic alerta que, embora tenham rastreado a atividade apenas através do Claude, é provável que abusos semelhantes estejam acontecendo em outros modelos de IA de fronteira. Eles dizem que este é o início de um novo padrão na guerra cibernética.

Então, por que continuar lançando modelos com essas capacidades, você se pergunta? Bem, a Anthropic argumenta que essas mesmas ferramentas são essenciais para a defesa, dizendo que "a IA que realizou o ataque foi também do mesmo tipo usado pelos analistas da Anthropic para vasculhar os destroços, encontrar padrões e entender a escala completa da operação."

Eles prometeram melhorar as camadas de segurança internas dos seus modelos, bem como refinar os seus classificadores para deteção de ataques, e publicar abertamente estudos de caso como este para que outros na indústria possam se preparar.

Ainda assim, a Anthropic diz que não é suficiente confiar apenas neles. Estão a instar todos os desenvolvedores que trabalham em grandes modelos a investir fortemente em segurança.

E estão a apelar às equipas de cibersegurança para começarem a integrar IA na deteção de ameaças, resposta a incidentes, verificações de vulnerabilidade e automação do Centro de Operações de Segurança, porque os métodos tradicionais já não são rápidos o suficiente.

Se está a ler isto, já está à frente. Fique por aí com a nossa newsletter.

Fonte: https://www.cryptopolitan.com/anthropic-china-ai%E2%80%91orchestrated-espionage/

Oportunidade de mercado
Logo de Sleepless AI
Cotação Sleepless AI (SLEEPLESSAI)
$0.01926
$0.01926$0.01926
-2.03%
USD
Gráfico de preço em tempo real de Sleepless AI (SLEEPLESSAI)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!