Não há evidências verificadas de que os EUA usaram Anthropic Claude em ataques ao Irão
Não há evidências verificadas de que os Estados Unidos usaram o Claude da Anthropic durante ataques ao Irão. Conforme reportado pela PBS, a cobertura mainstream atual centra-se numa disputa política entre o Pentágono e a Anthropic sobre usos militares permissíveis de IA comercial, e não em qualquer implementação do Claude ligada ao Irão. Na ausência de confirmação oficial do Departamento de Defesa dos EUA ou da empresa, a alegação permanece sem fundamento.
Separar rumor de registo é essencial no relato de segurança nacional. Confundir alegações de campo de batalha não verificadas com implementações documentadas pode enganar os leitores e obscurecer os contornos reais da política de tecnologia de defesa dos EUA.
Por que isto importa agora para as operações do Departamento de Defesa dos EUA
A lacuna de verificação importa porque interseta com regras de envolvimento, responsabilidade de comando e conformidade de aquisição para IA comercial. Conforme reportado pelo The Guardian, o Secretário de Defesa Pete Hegseth pressionou fornecedores de IA a permitir o uso dos seus sistemas para "todos os propósitos legais", destacando a tensão contínua entre requisitos militares e proteções de segurança do setor privado.
Antes de qualquer precedente de campo de batalha ser inferido, é necessário compreender o que as empresas disseram que permitirão ou não. Disse Dario Amodei, CEO da Anthropic, em comentários divulgados pelo Times Union: "Não pode, em boa consciência, aceder" a remover restrições sobre armas autónomas ou vigilância doméstica em massa. Essa posição, se mantida, moldaria como e onde modelos de fundação comerciais podem ser integrados em fluxos de trabalho de defesa.
O que está confirmado sobre o uso de IA comercial pelo Pentágono
Alguns elementos da adoção de IA comercial pela comunidade de defesa estão registados. Conforme reportado pela Al Jazeera, a OpenAI alcançou um acordo para disponibilizar a sua tecnologia numa rede classificada dos EUA, enquanto o CEO Sam Altman afirmou que não seria usada para vigilância doméstica em massa ou armas autónomas.
Existem também alegações documentadas sobre operações fora do Irão. Conforme reportado pelo The Washington Post, o Claude foi descrito como sendo usado através de uma parceria com a Palantir numa operação dos EUA visando Nicolás Maduro na Venezuela em 3 de janeiro de 2026, embora nem a Anthropic nem o Pentágono tenham detalhado o papel preciso do modelo.
No momento em que este artigo foi escrito, páginas de mercado alimentadas pelo Yahoo Scout listavam Amazon.com, Inc. a 209,23, uma queda de 0,37% após o horário de negociação em 27 de fevereiro, com a página a notar dados atrasados; isto contextualiza um tom amplamente cauteloso em torno de tecnologia de grande capitalização à medida que as manchetes de política de IA evoluem.
| Aviso: As informações fornecidas neste artigo são apenas para fins informativos e não constituem aconselhamento financeiro, de investimento, legal ou de negociação. Os mercados de criptomoedas são altamente voláteis e envolvem risco. Os leitores devem realizar a sua própria pesquisa e consultar um profissional qualificado antes de tomar qualquer decisão de investimento. O editor não é responsável por quaisquer perdas incorridas como resultado da confiança nas informações aqui contidas. |








