L'armée américaine a effectué des frappes aériennes contre l'Iran en utilisant l'IA Claude d'Anthropic samedi, quelques heures seulement après que le président Trump ait ordonné aux agences fédérales de cesser d'utiliser cette technologie.
Le Commandement central américain a utilisé Claude pour les évaluations de renseignement, l'identification de cibles et les simulations de combat pendant l'opération, selon des personnes proches du dossier. Les frappes ont été menées aux côtés d'Israël.
Le Guide suprême iranien, l'Ayatollah Ali Khamenei, a été tué dans les frappes. Les médias d'État iraniens ont confirmé sa mort après qu'il ait été ciblé dans son bureau à Téhéran. L'Iran a déclaré une période de deuil de 40 jours en réponse.
Trump avait ordonné à toutes les agences fédérales de "cesser immédiatement" d'utiliser les outils d'Anthropic la veille. Il a qualifié l'entreprise de "gauchistes cinglés" et a déclaré qu'elle mettait en danger des "vies américaines".
Le Pentagone a également désigné Anthropic comme un "risque pour la chaîne d'approvisionnement" et a annoncé un plan sur six mois pour éliminer progressivement ses systèmes. Le secrétaire à la Défense Pete Hegseth a déclaré que les combattants américains ne seraient pas "pris en otage par les caprices idéologiques de la Big Tech".
Le différend entre Anthropic et le Pentagone se développait depuis des mois. Le Pentagone exigeait une utilisation illimitée de Claude pour tout usage militaire "légal". Anthropic a refusé, déclarant qu'il ne supprimerait pas les protections contre la surveillance domestique ou les frappes menées sans intervention humaine.
Claude avait déjà été intégré dans les opérations militaires grâce à des partenariats avec Palantir et Amazon Web Services. Il a également été utilisé lors de l'opération de janvier qui a conduit à la capture du président vénézuélien Nicolás Maduro à Caracas.
Quelques heures après que le Pentagone ait rompu ses liens avec Anthropic, le PDG d'OpenAI, Sam Altman, a annoncé un accord pour déployer les modèles d'OpenAI au sein du réseau classifié du Département de la Défense.
Altman a déclaré que l'accord reflétait les principes d'OpenAI, notamment les interdictions de surveillance de masse domestique et les exigences de supervision humaine de l'utilisation des armes. Il a également appelé le Pentagone à offrir les mêmes conditions à toutes les entreprises d'IA.
OpenAI a refusé de dire si ses services remplaceraient directement le travail d'Anthropic pour le département.
Le Pentagone avait précédemment signé des contrats d'IA pluriannuels d'une valeur allant jusqu'à 200 millions de dollars chacun avec plusieurs entreprises, notamment Anthropic, OpenAI, Google et xAI d'Elon Musk.
OpenAI a annoncé un tour de financement de 110 milliards de dollars vendredi, valorisant l'entreprise à 730 milliards de dollars. Anthropic avait levé 30 milliards de dollars plus tôt en février.
Les deux entreprises se dirigent vers des introductions en bourse, peut-être cette année. Le PDG d'Anthropic, Dario Amodei, a précédemment travaillé chez OpenAI avant de partir en 2020 en raison de préoccupations concernant la déprioritisation de la sécurité.
Les experts en IA affirment qu'il faudra des mois pour remplacer complètement Claude dans les systèmes militaires, étant donné à quel point la technologie est intégrée avec des partenaires comme Palantir.
L'article Comment l'IA Claude d'Anthropic a été utilisée lors de frappes aériennes en Iran malgré l'interdiction fédérale de Trump est apparu en premier sur CoinCentral.


