Na noite de sexta-feira, enquanto as tensões geopolíticas se transformavam em conflito aberto no Médio Oriente, Sam Altman recorreu ao X para anunciar um acordo que muitos na comunidade tecnológica há muito temiam, mas poucos esperavam que se concretizasse tão abruptamente.
A OpenAI tinha assinado oficialmente um acordo com o Departamento de Guerra dos EUA (DoW) para implementar os seus modelos de fronteira nas redes militares mais sensíveis e classificadas.
O anúncio desencadeou uma tempestade de fogo imediata e caótica. Em poucos minutos, a thread tornou-se um campo de batalha de hashtags "Cancel ChatGPT", perguntas diretas de especialistas em segurança nacional e acusações inflamatórias de vender o futuro da humanidade.
Para uma empresa fundada no princípio de garantir que a AGI beneficia toda a humanidade, a mudança para um empreiteiro de defesa primário pareceu uma mudança tectónica na paisagem moral da indústria.
O contexto para esta mudança súbita é tão dramático quanto o próprio acordo. Apenas horas antes do anúncio de Altman, o Presidente Donald Trump emitiu uma ordem executiva abrangente que ordenava a todas as agências federais que cessassem imediatamente o uso de tecnologia da Anthropic, o principal rival da OpenAI.
O Secretário de Guerra Pete Hegseth rotulou a Anthropic como um "risco da cadeia de abastecimento para a segurança nacional", uma designação normalmente reservada para adversários estrangeiros como a Huawei.
A Anthropic tinha alegadamente recusado conceder ao Pentágono acesso incondicional aos seus modelos Claude, insistindo em "linhas vermelhas" contratuais que proibiriam o uso da tecnologia para vigilância em massa doméstica ou armas letais totalmente autónomas.
Sam Altman, CEO da OpenAI
A OpenAI entrou no vácuo deixado pela saída do seu rival. Enquanto a administração exigia que os modelos de IA estivessem disponíveis para "todos os fins legais", a OpenAI enquadrou a sua entrada não como uma capitulação, mas como um compromisso sofisticado.
Na sua Ask Me Anything (AMA), Altman defendeu que a OpenAI garantiu as mesmas proteções de segurança que a Anthropic procurava, mas conseguiu-as através de uma abordagem multicamadas em vez de um ultimato.
Ao concordar em trabalhar dentro dos quadros jurídicos existentes, citando a Quarta Emenda e a Lei Posse Comitatus, a OpenAI efetivamente reduziu um impasse que ameaçava deixar o exército dos EUA sem capacidades de IA de fronteira durante uma guerra ativa.
A thread rapidamente passou de relações públicas corporativas para um debate cru sobre a ética da guerra com IA. Uma das perguntas mais apreciadas abordou a mudança fundamental na missão da OpenAI: por que mudar de "melhoria humana" para colaboração de defesa?
A resposta de Altman foi caracteristicamente pragmática: "O mundo é um lugar complicado, confuso e por vezes perigoso. Acreditamos que as pessoas responsáveis por defender o país devem ter acesso às melhores ferramentas disponíveis."
Altman detalhou as proteções técnicas concebidas para impedir que a IA se torne um executor autónomo.
Estas incluem uma estratégia de implementação "apenas na nuvem", impedindo que os modelos sejam incorporados diretamente em dispositivos periféricos ou hardware de armas, e a implementação de "Engenheiros de Implementação de Campo" (FDE) para supervisionar o uso classificado.
No entanto, a thread permaneceu cética. Os críticos apontaram para uma Nota da Comunidade destacando que, ao abrigo da Lei USA PATRIOT, o "uso legal" ainda poderia abranger uma vasta recolha de dados.
Quando questionado sobre a probabilidade de a IA causar uma catástrofe global, Altman foi invulgarmente breve, sugerindo que a colaboração em segurança nacional pode na verdade reduzir o risco ao manter o Estado e os programadores na mesma página.
Uma das trocas mais reveladoras envolveu governança. Quando questionado se o governo federal poderia eventualmente nacionalizar a OpenAI, Altman admitiu: "Pensei nisso, claro, mas não parece super provável na trajetória atual."
Esta admissão fez pouco para acalmar aqueles que veem a mudança de marca do Departamento de Guerra e a lista negra da Anthropic como os primeiros passos em direção a uma AGI gerida pelo Estado.
As implicações deste acordo estendem-se muito além de um único contrato. Ao aceitar a designação de risco da cadeia de abastecimento do seu concorrente, a OpenAI validou implicitamente um mundo onde o governo pode escolher vencedores e perdedores com base no compromisso ideológico de uma empresa com a utilidade militar.
Isto estabelece um precedente assustador, como até Altman reconheceu, onde as empresas privadas podem sentir-se pressionadas a baixar as suas proteções éticas para evitar serem rotuladas como uma ameaça à segurança nacional.
Do ponto de vista ético, o requisito de humano no circuito permanece o ponto mais controverso.
Embora a OpenAI insista que os humanos manterão a responsabilidade pelo uso da força, especialistas em defesa na thread notaram que a política atual do DoW (Diretiva 3000.09) é notoriamente vaga sobre o que constitui controlo humano significativo em combate digital de alta velocidade.
Sam Altman
Se uma IA processa dados de segmentação mais rápido do que um humano pode piscar os olhos, está o humano verdadeiramente no circuito ou é meramente um carimbo de borracha para a decisão de uma máquina?
O risco de perda de controlo da AGI já não é uma preocupação teórica para o futuro distante; é uma questão de como estes modelos se comportarão no ambiente de alto risco da guerra classificada.
Leia também: OpenAI angaria recorde de 110 mil milhões de dólares da Amazon, NVIDIA e SoftBank para impulsionar IA
À medida que a AMA concluía, a imagem de Altman nas memórias dos utilizadores da OpenAI não era a de um visionário tecnológico de olhos estrelados, mas de um diplomata digital a navegar num mundo de poder concreto.
Ele deixou a thread com uma conclusão sóbria: a era do desenvolvimento neutro de IA acabou. A decisão da OpenAI de se integrar com o Departamento de Guerra marca o início de um novo capítulo onde a AGI é tratada como um ativo estratégico do Estado, em vez de um bem público global.
A publicação Resumo da AMA de Sam Altman sobre o pacto controverso da OpenAI com o Departamento de Guerra apareceu primeiro no Technext.


