El ejército estadounidense llevó a cabo ataques aéreos contra Irán utilizando la IA Claude de Anthropic el sábado, solo horas después de que el presidente Trump ordenara a las agencias federales dejar de usar la tecnología.
El Comando Central de EE.UU. utilizó Claude para evaluaciones de inteligencia, identificación de objetivos y simulaciones de batalla durante la operación, según personas familiarizadas con el asunto. Los ataques se realizaron junto con Israel.
El líder supremo de Irán, el ayatolá Ali Khamenei, murió en los ataques. Los medios estatales iraníes confirmaron su muerte después de que fuera objetivo en su oficina en Teherán. Irán declaró un período de luto de 40 días en respuesta.
Trump había ordenado a todas las agencias federales "cesar inmediatamente" el uso de las herramientas de Anthropic el día anterior. Llamó a la compañía "locos de izquierda" y dijo que estaba poniendo en riesgo "vidas estadounidenses".
El Pentágono también designó a Anthropic como un "riesgo para la cadena de suministro" y anunció un plan de seis meses para eliminar gradualmente sus sistemas. El secretario de Defensa Pete Hegseth dijo que los combatientes estadounidenses no serían "rehenes de los caprichos ideológicos de las grandes empresas tecnológicas".
La disputa entre Anthropic y el Pentágono se había estado gestando durante meses. El Pentágono exigió el uso sin restricciones de Claude para cualquier propósito militar "legal". Anthropic se negó, diciendo que no eliminaría las salvaguardas contra la vigilancia doméstica o los ataques realizados sin participación humana.
Claude ya había sido integrado en operaciones militares a través de asociaciones con Palantir y Amazon Web Services. También se utilizó durante la operación de enero que condujo a la captura del presidente venezolano Nicolás Maduro en Caracas.
Horas después de que el Pentágono cortara lazos con Anthropic, el CEO de OpenAI, Sam Altman, anunció un acuerdo para implementar los modelos de OpenAI dentro de la red clasificada del Departamento de Defensa.
Altman dijo que el acuerdo reflejaba los principios de OpenAI, incluidas las prohibiciones sobre vigilancia masiva doméstica y los requisitos de supervisión humana en el uso de armas. También pidió al Pentágono que ofreciera los mismos términos a todas las compañías de IA.
OpenAI declinó decir si sus servicios reemplazarían directamente el trabajo de Anthropic para el departamento.
El Pentágono había firmado previamente contratos de IA de varios años por un valor de hasta 200 millones de dólares cada uno con varias compañías, incluidas Anthropic, OpenAI, Google y xAI de Elon Musk.
OpenAI anunció una ronda de financiación de 110 mil millones de dólares el viernes, valorando la compañía en 730 mil millones de dólares. Anthropic había recaudado 30 mil millones de dólares a principios de febrero.
Ambas compañías están avanzando hacia ofertas públicas iniciales, posiblemente este año. El CEO de Anthropic, Dario Amodei, trabajó anteriormente en OpenAI antes de irse en 2020 por preocupaciones sobre que la seguridad estaba siendo relegada.
Los expertos en IA dicen que tomará meses reemplazar completamente a Claude en los sistemas militares, dado lo profundamente que la tecnología está integrada con socios como Palantir.
La publicación Cómo se utilizó la IA Claude de Anthropic en ataques aéreos contra Irán a pesar de la prohibición federal de Trump apareció primero en CoinCentral.

