Este artigo examina como as salvaguardas da Anthropic AI entram em conflito com as exigências do Pentágono, os limites de autonomia e as implicações de vigilância na IA de defesa.Este artigo examina como as salvaguardas da Anthropic AI entram em conflito com as exigências do Pentágono, os limites de autonomia e as implicações de vigilância na IA de defesa.

Confronto no Pentágono coloca salvaguardas de IA da Anthropic e contrato de defesa de 200 milhões de dólares em risco

2026/02/27 20:13
Leu 6 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com
anthropic ai

A crescente tensão entre um laboratório líder de inteligência artificial e o estabelecimento de defesa dos EUA escalou para um confronto de alto risco sobre a Anthropic AI e o uso no campo de batalha.

Anthropic mantém-se firme contra a pressão do Pentágono

Anthropic recusou as exigências do Departamento de Defesa dos EUA para remover limites de segurança de IA essenciais dos seus sistemas, mesmo que o seu contrato de 200 milhões de dólares esteja agora em risco. A empresa deixou claro que não recuará na sua disputa com o DoD sobre como os seus modelos avançados podem ser implementados nas redes militares.

As rivais da startup OpenAI, Google e xAI garantiram prémios semelhantes do DoD de até 200 milhões de dólares em 2023. No entanto, essas empresas concordaram em permitir que o Pentágono usasse os seus sistemas para todas as missões legais dentro dos ambientes não classificados do exército, dando ao governo maior flexibilidade operacional.

Em contraste, a Anthropic assinou o seu próprio acordo de 200 milhões de dólares com o DoD em julho e tornou-se o primeiro laboratório de IA a incorporar os seus modelos diretamente nos fluxos de trabalho de missão em redes classificadas. Além disso, as suas ferramentas foram integradas em operações de defesa sensíveis, colocando a empresa no centro da construção de IA de segurança nacional dos EUA.

As negociações com funcionários do Pentágono tornaram-se cada vez mais tensas nas últimas semanas. Uma pessoa familiarizada com as conversas disse que o atrito "remonta a vários meses", bem antes de se tornar público que Claude foi usado numa operação dos EUA ligada à apreensão do presidente venezuelano Nicolás Maduro.

Disputa sobre vigilância e armas autónomas

No centro do confronto está até que ponto as autoridades militares podem empurrar modelos de IA poderosos em direção à vigilância e autonomia. A Anthropic está a procurar garantias vinculativas de que a sua tecnologia não será usada para armas totalmente autónomas ou para vigilância doméstica em massa de americanos, enquanto o DoD quer evitar tais limites.

Dito isto, esta não é uma disputa comercial estreita, mas uma disputa de salvaguardas de IA de alto perfil com implicações diretas para a futura automação do campo de batalha. O Pentágono insiste na máxima latitude legal, enquanto a Anthropic argumenta que os sistemas atuais ainda não podem ser confiáveis com decisões de vida ou morte em grande escala.

Numa declaração detalhada, o CEO Dario Amodei alertou que num "conjunto estreito de casos" a inteligência artificial pode "minar, em vez de defender, valores democráticos." Ele enfatizou que algumas aplicações estão "simplesmente fora dos limites do que a tecnologia de hoje pode fazer com segurança e confiabilidade", destacando os riscos de uso indevido durante operações militares complexas.

Expandindo as preocupações de vigilância, Amodei argumentou que sistemas poderosos agora tornam possível "reunir esses dados dispersos e individualmente inócuos numa imagem abrangente da vida de qualquer pessoa, automaticamente e em escala massiva." Além disso, ele alertou que tal capacidade, se direcionada para dentro, poderia remodelar fundamentalmente a relação entre cidadãos e o Estado.

Amodei reiterou que a Anthropic apoia o uso de IA para coleta legal de inteligência estrangeira. No entanto, ele acrescentou que "usar esses sistemas para vigilância doméstica em massa é incompatível com valores democráticos", traçando uma linha ética rígida entre inteligência no exterior e monitoramento interno de cidadãos americanos.

Ameaças, prazos e pressão legal

A luta de poder intensificou-se durante uma reunião de terça-feira no Pentágono entre Amodei e o Secretário de Defesa Pete Hegseth. Hegseth ameaçou classificar a Anthropic como um "risco de cadeia de abastecimento" ou invocar a Lei de Produção de Defesa para forçar a conformidade. Na noite de quarta-feira, o DoD entregou o que chamou de sua "última e final oferta", dando à empresa até às 17h01 ET de sexta-feira para responder.

Uma porta-voz da Anthropic reconheceu ter recebido a linguagem contratual revista na quarta-feira, mas disse que representava "praticamente nenhum progresso." De acordo com ela, uma nova redação apresentada como compromisso foi emparelhada com uma formulação legal que efetivamente permitiria que salvaguardas críticas fossem "desconsideradas à vontade", minando as proteções declaradas.

Abordando a crescente pressão, Amodei disse: "O Departamento de Guerra declarou que só contratará empresas de IA que acedem a 'qualquer uso legal' e removam salvaguardas nos casos mencionados acima." Ele acrescentou que funcionários ameaçaram cortar a Anthropic dos seus sistemas e designar a empresa como um "risco de cadeia de abastecimento" se ela recusasse; no entanto, ele insistiu, "não podemos em boa consciência aceitar o seu pedido."

Para o Pentágono, a questão é enquadrada de forma diferente. O porta-voz chefe Sean Parnell disse na quinta-feira que o DoD não tem "interesse" em usar os sistemas da Anthropic para armas totalmente autónomas ou para conduzir vigilância em massa de americanos, observando que tais práticas seriam ilegais. Em vez disso, ele manteve que o departamento simplesmente quer que a empresa permita o uso da sua tecnologia para "todos os fins legais", descrevendo isso como um "pedido simples e de senso comum."

Ataques pessoais e apoio público

A disputa também se tornou pessoal em níveis seniores. Na noite de quinta-feira, o subsecretário de defesa dos EUA Emil Michael atacou Amodei no X, alegando que o executivo "não quer nada mais do que tentar controlar pessoalmente as Forças Armadas dos EUA." Michael foi mais longe, escrevendo: "É uma pena que Dario Amodei seja um mentiroso e tenha um complexo de Deus."

No entanto, a Anthropic ganhou apoio significativo de partes do setor de tecnologia. Numa carta aberta, mais de 200 trabalhadores da Google e OpenAI apoiaram publicamente a posição da empresa. Além disso, um ex-funcionário do DoD disse à BBC que a justificação de Hegseth para usar o rótulo de "risco de cadeia de abastecimento" parecia "extremamente frágil", levantando questões sobre a robustez do caso do Pentágono.

O confronto também se tornou uma pedra de toque no debate mais amplo sobre a política de ética de IA militar. Investigadores de IA e defensores das liberdades civis estão a observar atentamente, vendo o caso como um teste inicial de até onde as agências de defesa podem empurrar laboratórios privados a relaxar restrições incorporadas em sistemas avançados.

Interesses estratégicos para a IA de defesa dos EUA

Apesar da retórica crescente, Amodei enfatizou que ele está "profundamente na importância existencial de usar IA para defender os Estados Unidos." Ele enquadrou a questão como uma de implementação responsável, não de oposição à defesa nacional, argumentando que a credibilidade de longo prazo das capacidades de IA dos EUA depende da manutenção de normas democráticas.

Um representante da Anthropic disse que a organização permanece "pronta para continuar as conversas e comprometida com a continuidade operacional para o Departamento e os combatentes da América." No entanto, com o relógio do prazo do Pentágono a contar e ameaças de designação de cadeia de abastecimento ainda na mesa, ambos os lados enfrentam pressão para resolver o impasse sem descarrilar a inovação crítica.

Em última análise, o confronto Anthropic–Pentágono sobre salvaguardas, vigilância e autonomia tornou-se um caso inicial definidor na governação de IA militar. O seu resultado provavelmente moldará como futuros modelos de IA da Anthropic e sistemas rivais são contratados, restringidos e implementados nas operações de defesa dos EUA.

Oportunidade de mercado
Logo de Clash
Cotação Clash (CLASH)
$0.031088
$0.031088$0.031088
-2.47%
USD
Gráfico de preço em tempo real de Clash (CLASH)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.