Claude, o produto principal da Anthropic, foi encontrado envolvido no ataque militar dos EUA à Venezuela para capturar o seu presidente e sua esposa, de acordo com relatórios.
Apesar das políticas anti-violência da Anthropic, a parceria da empresa com a Palantir permite que o Claude seja usado para operações militares. Alguns acreditam que o Agente de IA foi usado para tarefas não violentas.

Uma série de novos relatórios revelou que os militares dos EUA usaram o modelo de inteligência artificial da Anthropic, Claude, durante a operação de alto risco para capturar o ex-presidente venezuelano Nicolás Maduro.
A missão, conhecida como "Operação Resolve", ocorreu no início de janeiro de 2026 e resultou na prisão de Maduro e sua esposa, Cilia Flores, no coração de Caracas. De acordo com o The Wall Street Journal e a Fox News, o Claude foi integrado na missão através da parceria da Anthropic com a empresa de análise de dados Palantir Technologies.
O Departamento de Guerra dos EUA, liderado pelo Secretário Pete Hegseth, tem usado cada vez mais modelos de IA comerciais para modernizar as suas operações de combate.
Os detalhes sobre as tarefas específicas que o Claude executou são classificados, mas o Agente de IA é conhecido por ser usado para resumir quantidades massivas de dados de inteligência, analisar imagens de satélite e possivelmente fornecer suporte de decisão para movimentos complexos de tropas.
O ataque ocorreu nas primeiras horas de 3 de janeiro de 2026, quando as Forças de Operações Especiais dos EUA, incluindo comandos da Delta Force, conseguiram invadir o palácio fortificado de Maduro. O Presidente Donald Trump descreveu mais tarde que Maduro foi "surpreendido" antes que pudesse chegar a uma sala de segurança reforçada com aço.
As defesas aéreas venezuelanas foram suprimidas e vários locais militares foram bombardeados durante a missão. Maduro foi transportado para um navio de guerra dos EUA e depois para a cidade de Nova Iorque, onde atualmente enfrenta acusações federais de narcoterrorismo e importação de cocaína.
O Claude foi desenhado com um foco constitucional na segurança, então como foi usado numa operação militar letal? As diretrizes de uso público da Anthropic proíbem que o Claude seja usado para violência, desenvolvimento de armas ou vigilância.
A Anthropic declarou que monitoriza todo o uso das suas ferramentas e garante que cumprem as suas políticas. No entanto, a parceria com a Palantir permite que os militares usem o Claude em ambientes classificados.
Fontes familiarizadas com o assunto sugerem que o Agente de IA pode ter sido usado para tarefas de apoio não letais, como traduzir comunicações ou processar logística. No entanto, o Departamento de Guerra está atualmente a pressionar as empresas de IA a remover muitas das suas restrições padrão para uso militar.
Os relatórios indicam que a administração Trump está a considerar cancelar um contrato de 200 milhões de dólares com a Anthropic porque a empresa levantou preocupações sobre o seu Agente de IA ser usado para drones autónomos ou vigilância. O Secretário Pete Hegseth afirmou que "o futuro da guerra americana escreve-se IA" e deixou claro que o Pentágono não trabalhará com empresas que limitem capacidades militares.
Obtenha 8% de CASHBACK quando gastar cripto com o cartão COCA Visa. Encomende o seu cartão GRATUITO.


