L'article « L'IA a choisi les armes nucléaires dans 95 % des jeux de guerre. Le Pentagone veut quand même la déployer. » est paru sur BitcoinEthereumNews.com. Anthropic avait un contrat de 200 millions de dollars avec le PentagoneL'article « L'IA a choisi les armes nucléaires dans 95 % des jeux de guerre. Le Pentagone veut quand même la déployer. » est paru sur BitcoinEthereumNews.com. Anthropic avait un contrat de 200 millions de dollars avec le Pentagone

L'IA a choisi les armes nucléaires dans 95 % des jeux de guerre. Le Pentagone veut quand même la déployer.

2026/03/05 05:26
Temps de lecture : 15 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

Anthropic avait un contrat de 200 millions de dollars avec le Pentagone, un accès à des réseaux classifiés et la pleine confiance de l'armée américaine.

Puis ils ont posé une question.

En novembre 2024, Anthropic est devenue la première entreprise d'IA de pointe à être déployée dans les réseaux classifiés du Pentagone. Le partenariat a été établi avec Palantir. En juillet 2025, le contrat avait atteint 200 millions de dollars — plus que ce que la plupart des startups de défense voient en une décennie.

Claude, le modèle d'IA d'Anthropic, était partout. Analyse de renseignement. Opérations cybernétiques. Planification opérationnelle. Modélisation et simulation. Le Département de la Guerre l'a qualifié de « critique pour la mission ».

Puis vint janvier 2026.

Claude a été utilisé dans une opération militaire classifiée au Venezuela — la capture de Nicolás Maduro.

Anthropic a posé une simple question à son partenaire Palantir : comment exactement notre technologie a-t-elle été utilisée ?

Dans la plupart des secteurs, cela s'appelle de la diligence raisonnable. Le Pentagone a appelé ça de l'insubordination.

L'entreprise qui a demandé « comment notre IA est-elle utilisée ? » était sur le point d'être étiquetée comme une menace pour la sécurité nationale.

Sept jours qui ont tout changé

Voici la chronologie. Ça va vite. C'est le but.

24 février : Pete Hegseth, Secrétaire à la Guerre, convoque Dario Amodei — PDG d'Anthropic — au Pentagone. La demande est brutale : supprimer toutes les protections de Claude. Surveillance de masse domestique. Armes entièrement autonomes. Tout.

La date limite : 27 février, 17h01 ET.

26 février : Amodei publie sa réponse. Elle fait deux lettres.

Non.

Sa déclaration publique a établi deux lignes rouges qu'il ne franchirait pas :

  • Pas de surveillance de masse domestique. L'IA assemblant vos données de localisation, votre historique de navigation et vos dossiers financiers en un profil — automatiquement, à grande échelle. Le point d'Amodei : la loi actuelle permet au gouvernement d'acheter ces données sans mandat. L'IA rend possible leur utilisation comme arme. « La loi n'a pas encore rattrapé les capacités en croissance rapide de l'IA. »
  • Pas d'armes entièrement autonomes. Traduction : ne pas retirer les humains de la décision de tuer quelqu'un. Non pas parce que les armes autonomes ne seront jamais viables — mais parce que l'IA d'aujourd'hui n'est pas assez fiable. « Les systèmes d'IA de pointe ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes. »

Il a proposé de travailler directement avec le Pentagone sur la R&D pour améliorer la fiabilité. Le Pentagone a décliné l'offre.

26 février (même jour) : Emil Michael, sous-secrétaire, traite Amodei de « menteur avec un complexe de Dieu ». Publiquement. Sur les réseaux sociaux. Le ton était donné.

27 février, 17h01 : La date limite passe. Le président Trump ordonne à toutes les agences fédérales de cesser d'utiliser Anthropic. Hegseth désigne Anthropic comme un « Risque pour la chaîne d'approvisionnement » en vertu du Federal Acquisition Supply Chain Security Act de 2018.

Cette désignation avait auparavant été réservée à Huawei et Kaspersky — des entreprises étrangères ayant des liens documentés avec des gouvernements adverses.

Elle n'avait jamais été appliquée à une entreprise américaine. Jusqu'à maintenant.

27 février, quelques heures plus tard : OpenAI signe un accord de déploiement classifié avec le même Pentagone.

Sam Altman tweete à 20h56 :

https://x.com/sama/status/2027578652477821175?s=20

OpenAI a ensuite affirmé que son accord comportait « plus de garde-fous que tout accord précédent pour des déploiements d'IA classifiés, y compris celui d'Anthropic ».

Voici le truc. Anthropic a été mise sur liste noire à cause de ses garde-fous. Maintenant, les garde-fous étaient l'argument de vente.

Le week-end : La réaction a été immédiate.

  • Les désinstallations de ChatGPT ont bondi de 295 % en une seule journée, selon Sensor Tower. Le taux quotidien normal sur les 30 jours précédents ? 9 %.
  • Claude a atteint la première place sur l'App Store d'Apple dans sept pays : les États-Unis, la Belgique, le Canada, l'Allemagne, le Luxembourg, la Norvège et la Suisse. Les téléchargements ont grimpé de 37 % vendredi, puis de 51 % samedi. Première fois que l'application atteignait la première place.
  • Plus de 300 employés de Google et 60 employés d'OpenAI ont signé une lettre ouverte soutenant Anthropic.
  • #QuitGPT a été en tendance sur les réseaux sociaux. L'acteur Mark Ruffalo et le professeur de NYU Scott Galloway ont amplifié le mouvement.

Les utilisateurs étaient... pas ravis.

2 mars : Altman a posté à nouveau. Cette fois, un long mémo interne partagé publiquement sur X :

https://x.com/sama/status/2028640354912923739?s=20

Les amendements ont ajouté trois choses :

  • Une interdiction explicite de la surveillance domestique des personnes américaines
  • Une exigence que la NSA ait besoin d'une modification contractuelle séparée pour accéder au système
  • Des restrictions sur l'utilisation de données personnelles acquises commercialement — géolocalisation, historique de navigation, dossiers financiers

Ce dernier point mérite qu'on s'y attarde. Il a été ajouté lundi. Ce qui signifie que l'accord de vendredi ne l'interdisait pas.

3 mars : Deux choses se sont produites le même jour.

Premièrement : Lors du sommet American Dynamism d'a16z, le PDG de Palantir, Alex Karp, a averti que les entreprises d'IA refusant de coopérer avec l'armée feraient face à une nationalisation. Il a utilisé une insulte sur scène. Le clip a obtenu 11 millions de vues.

Palmer Luckey, fondateur de l'entreprise de technologie de défense Anduril, a déclaré au même public que « des termes apparemment anodins comme 'le gouvernement ne peut pas utiliser votre technologie pour cibler des civils' sont en réalité des champs de mines moraux ».

Le vice-président JD Vance avait fait le discours principal plus tôt dans la journée. La position de l'administration était claire.

Deuxièmement : CNBC a rapporté que lors d'une réunion générale avec les employés, Altman a dit au personnel d'OpenAI que l'entreprise « ne peut pas choisir comment l'armée utilise sa technologie ».

Les utilisateurs de X ont ajouté une Note de la communauté au post précédent d'Altman :

Même jour. Post public : nous avons des garde-fous et des principes. Réunion interne : nous ne pouvons pas choisir.

Pendant ce temps, CBS News a rapporté que Claude restait déployé dans des opérations militaires actives — y compris contre l'Iran — malgré la désignation de risque pour la chaîne d'approvisionnement. La mise sur liste noire n'a apparemment pas fonctionné. La technologie était trop profondément intégrée dans les systèmes classifiés pour être retirée.

Le problème des 95 %

Dans les simulations de jeux de guerre, les modèles d'IA ont choisi de lancer des armes nucléaires tactiques 95 % du temps.

Laissez ça s'installer une seconde.

GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash ont été soumis à des simulations de conflits militaires. Ils ont utilisé des armes nucléaires tactiques dans 95 % des scénarios. Au moins un modèle a lancé une arme nucléaire dans 20 parties sur 21.

C'est la technologie que le Pentagone veut déployer de manière autonome.

Les modes de défaillance sont documentés et cohérents :

  • Biais d'escalade. Les modèles n'échouent pas seulement de manière aléatoire. Ils échouent dans une direction spécifique — vers l'escalade. La recherche de la Brookings Institution a révélé que les erreurs militaires de l'IA sont systématiques, pas aléatoires. Le schéma est toujours le même : plus de force, plus vite.
  • Hallucinations. Les LLM génèrent de fausses informations avec une grande confiance. Dans un test lié aux frappes en Iran, une IA a injecté de fausses informations dans la chaîne de décision. Sous la pression du temps, les opérateurs humains ne pouvaient pas la distinguer de la réalité.
  • Vulnérabilité adversariale. Ces systèmes peuvent être manipulés avec des entrées soigneusement conçues pour contourner leurs restrictions. L'attaquant n'a pas besoin d'être externe. La vulnérabilité réside dans le modèle lui-même.

Ce ne sont pas des cas limites. C'est ce que fait la technologie aujourd'hui.

Pensez-y de cette façon. Nous avons déjà vu ce qui se passe lorsque des systèmes autonomes simples échouent dans des contextes militaires.

Le système de missiles Patriot en 2003 a tué des soldats alliés. Il a mal identifié un avion britannique ami comme un missile ennemi. Le système était basé sur des règles, avec des paramètres définis. Il s'est quand même trompé.

L'USS Vincennes en 1988 a abattu le vol 655 d'Iran Air — un avion de ligne commercial. 290 civils tués. Le système de combat Aegis du navire a mal identifié l'avion sur la base de données radar. L'équipage avait quelques secondes pour décider. Ils ont fait confiance au système.

C'étaient des systèmes basés sur des règles avec des paramètres clairs. Les LLM sont des ordres de grandeur plus complexes. Plus opaques. Moins prévisibles.

Et on leur demande de prendre des décisions plus importantes.

Le problème de la surveillance. Une fois que l'IA est déployée dans des réseaux classifiés, la responsabilité externe devient ce que les experts appellent « presque impossible ». Les restrictions s'érodent sous la pression opérationnelle. Les ingénieurs déployés sur le terrain qu'OpenAI a promis peuvent observer certaines interactions, bien sûr. Mais les opérations classifiées limitent le flux d'informations par conception.

En clair : les mêmes murs qui gardent les secrets à l'intérieur empêchent aussi la surveillance d'entrer.

Le Pentagone a un argument. Il mérite d'être entendu équitablement.

Les armes partiellement autonomes — comme les drones utilisés en Ukraine — sauvent des vies. Elles permettent à des forces plus petites de se défendre contre des forces plus importantes. La Chine et la Russie n'attendent pas une fiabilité parfaite avant de déployer leurs propres systèmes.

Refuser d'utiliser l'IA dans la défense crée un écart de capacités. Les adversaires l'exploiteront.

Dario Amodei l'a reconnu directement :

Son objection n'était pas à la destination. C'était au calendrier.

Il a proposé de collaborer sur la R&D nécessaire pour y arriver. Le Pentagone a dit non.

Il y a un écart entre « l'IA peut résumer des rapports de renseignement » — où elle excelle vraiment — et « l'IA peut décider qui vit et qui meurt ». Les contrats ne comblent pas cet écart. Les amendements ne le comblent pas. L'ingénierie le fait.

Et l'ingénierie n'est pas terminée.

Comment mettre sur liste noire une entreprise américaine

Risque pour la chaîne d'approvisionnement. Ça sonne bureaucratique. C'est en fait un interrupteur mortel.

En vertu du Federal Acquisition Supply Chain Security Act de 2018 — FASCSA — une désignation de « risque pour la chaîne d'approvisionnement » signifie qu'aucun entrepreneur gouvernemental ne peut faire affaire avec vous. Pas seulement le Pentagone. Quiconque veut un contrat fédéral. Tout fournisseur, sous-traitant ou partenaire dans l'écosystème gouvernemental.

En clair : vous devenez radioactif pour toute la chaîne d'approvisionnement fédérale.

La loi a été conçue pour les menaces étrangères. L'infrastructure 5G de Huawei. Le logiciel antivirus de Kaspersky. Des entreprises ayant des liens documentés avec des gouvernements hostiles.

Chaque entreprise sur la liste avant Anthropic avait une chose en commun : elles venaient de pays considérés comme adversaires des États-Unis.

Anthropic a son siège à San Francisco.

Le Pentagone a également menacé d'utiliser le Defense Production Act — une loi de l'époque de la Guerre froide conçue pour réquisitionner des usines pour la production en temps de guerre. Aciéries. Usines de munitions. L'infrastructure physique de la guerre.

Le Pentagone a menacé de l'utiliser pour forcer une entreprise de logiciels à supprimer les fonctionnalités de sécurité d'un chatbot IA.

Les experts juridiques ont qualifié l'application de « discutable ». La loi a été conçue pour la production physique, pas pour les restrictions logicielles. L'utiliser pour obliger une entreprise à rendre son IA moins sûre serait, au minimum, une théorie juridique inédite.

Amodei a identifié le problème logique dans sa déclaration :

On ne peut pas qualifier une technologie de menace pour la chaîne d'approvisionnement et invoquer des pouvoirs d'urgence pour la saisir parce qu'on ne peut pas fonctionner sans elle. Choisissez-en un.

Le résultat pratique est révélateur. CBS News a rapporté que Claude reste utilisé activement dans des opérations militaires. Malgré la mise sur liste noire. La désignation était punitive, pas pratique — la technologie était trop intégrée pour être retirée.

Ce qui soulève une question à laquelle personne à Washington ne semble désireux de répondre : si le Pentagone ne peut pas faire respecter un ordre de retrait pour une technologie qu'il a officiellement mise sur liste noire, comment exactement fera-t-il respecter les garde-fous d'utilisation ?

La position du Pentagone est simple. Les entreprises privées ne définissent pas la politique militaire. Les entreprises d'IA sont des fournisseurs. L'armée décide comment ses outils sont utilisés.

De ce point de vue, Anthropic était un fournisseur qui a refusé de livrer ce qui était commandé. Le client a trouvé un autre fournisseur.

Ce cadrage est cohérent en interne. C'est aussi le cadrage que vous utiliseriez pour des fournitures de bureau. Pas pour une technologie qui a choisi l'escalade nucléaire dans 95 % des simulations.

Les garde-fous sont-ils réels ?

Vendredi, l'accord d'OpenAI avait des garde-fous. Lundi, il avait besoin de plus de garde-fous.

Cela vous dit quelque chose sur les garde-fous du vendredi.

Le langage qu'Altman a accepté dans l'amendement du lundi mérite une lecture attentive :

Le mot qui fait le gros du travail : intentionnellement.

Que se passe-t-il lorsqu'une IA traite un ensemble de données qui inclut incidemment des Américains ? Et si la surveillance est un sous-produit d'une opération de renseignement plus large, pas l'objectif déclaré ? Qui définit l'intention à l'intérieur d'un réseau classifié où les mécanismes de surveillance sont, par conception, limités ?

La clause sur les données acquises commercialement est encore plus révélatrice. L'amendement du lundi interdit explicitement l'utilisation de données personnelles achetées — suivi de localisation, historique de navigation, dossiers financiers — pour la surveillance des Américains.

Cette clause a été ajoutée lundi. L'accord du vendredi ne l'incluait pas.

Pendant tout un week-end, l'accord d'OpenAI avec le Pentagone permettait techniquement la surveillance de masse via des données achetées commercialement sur des citoyens américains.

Altman l'a reconnu :

L'exception de la NSA mérite également d'être examinée. Les agences de renseignement comme la NSA ne peuvent pas utiliser le système d'OpenAI sans une « modification de suivi » du contrat. Cela ressemble à une interdiction. C'est en fait un processus. Le mécanisme pour accorder l'accès est intégré dans la structure du contrat.

Ce n'est pas un mur. C'est une porte avec une clé différente.

Le problème plus profond est la contradiction de la réunion générale. Le même jour où Altman a posté sur les principes et les garde-fous sur X, il a dit aux employés en interne qu'OpenAI « ne peut pas choisir comment l'armée utilise sa technologie ».

Si l'entreprise qui construit l'IA ne peut pas choisir comment elle est utilisée, les garde-fous sont un communiqué de presse. Pas une politique.

Dans les environnements classifiés, surveiller l'IA est fondamentalement différent de surveiller un service cloud. L'appareil de sécurité qui protège les secrets militaires bloque également la surveillance indépendante du comportement de l'IA.

Les ingénieurs déployés sur le terrain peuvent observer certaines interactions. Mais « certaines interactions » et « chaque interaction couverte par le contrat » sont des choses très différentes.

Que se passe-t-il ensuite

Le marché a parlé. La coopération obtient des contrats. La résistance est mise sur liste noire.

Le public a également parlé. Ils désinstallent.

La structure d'incitation est claire. OpenAI a coopéré et a décroché l'accord. Anthropic a résisté et a été désignée comme un risque pour la chaîne d'approvisionnement — le même label que le gouvernement utilise pour les entreprises liées à des adversaires étrangers.

Au sommet d'a16z, Karp a prédit que chaque entreprise d'IA travaillera avec l'armée d'ici trois ans. Sur la base des incitations, ce n'est pas une prédiction. C'est une description.

Mais les chiffres de la réaction racontent une histoire différente.

La hausse de 295 % des désinstallations. Claude au #1 dans sept pays. Plus de 500 employés de la technologie rompant les rangs avec leurs employeurs. Le Monde éditorialisant depuis Paris sur les dépassements gouvernementaux. Des sondages montrant que 84 % des citoyens britanniques s'inquiètent des partenariats d'IA gouvernement-entreprises.

Les ingénieurs qui construisent ces systèmes et les personnes qui les utilisent voient quelque chose que le Pentagone ne voit apparemment pas : soutenir la défense nationale et déployer une technologie peu fiable pour des tueries autonomes ne sont pas la même chose.

Aucun amendement de contrat ne comble cet écart. Aucun garde-fou ne le comble. Aucun ingénieur déployé sur le terrain ne le comble.

Les modèles d'IA ont choisi l'escalade nucléaire dans 95 % des simulations de jeux de guerre. L'entreprise qui a dit « la technologie n'est pas encore prête » a été mise sur liste noire. L'entreprise qui a dit « oui » a admis dans les 72 heures qu'elle avait été négligente. La technologie reste déployée dans des opérations actives, peu importe ce que l'une ou l'autre entreprise voulait.

Amodei a proposé de faire la R&D pour rendre les armes autonomes d'IA sûres et fiables. Il a proposé de collaborer avec le Pentagone pour y arriver. L'offre a été déclinée.

Anthropic avait un contrat de 200 millions de dollars et la confiance du Pentagone. Puis ils ont demandé comment leur technologie était utilisée.

La réponse a été une date limite, une mise sur liste noire et un label auparavant réservé aux adversaires de l'Amérique.

Les simulations continuent de tourner. Dans 95 % d'entre elles, quelqu'un appuie sur le bouton.

Divulgation : Cet article a été édité par Diego Almada Lopez. Pour plus d'informations sur la façon dont nous créons et révisons le contenu, consultez notre Politique éditoriale.

Source : https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.