Tard vendredi soir, alors que les tensions géopolitiques se transformaient en conflit ouvert au Moyen-Orient, Sam Altman a publié sur X l'annonce d'un accord que beaucoup dans la communauté technologique craignaient depuis longtemps, mais que peu s'attendaient à voir se matérialiser si brusquement.
OpenAI avait officiellement signé un accord avec le département de la Guerre des États-Unis (DoW) pour déployer ses modèles de pointe au sein des réseaux militaires les plus sensibles et classifiés.
L'annonce a déclenché immédiatement une tempête chaotique. En quelques minutes, le fil de discussion est devenu un champ de bataille de hashtags "Cancel ChatGPT", d'enquêtes pointues d'experts en sécurité nationale et d'accusations incendiaires de trahison de l'avenir de l'humanité.
Pour une entreprise fondée sur le principe d'assurer que l'AGI profite à toute l'humanité, le pivot vers un rôle de contractant principal de la défense semblait être un changement tectonique dans le paysage moral de l'industrie.
Le contexte de ce pivot soudain est aussi dramatique que l'accord lui-même. Quelques heures seulement avant l'annonce d'Altman, le président Donald Trump a émis un décret exécutif de grande envergure ordonnant à toutes les agences fédérales de cesser immédiatement l'utilisation de la technologie d'Anthropic, le principal rival d'OpenAI.
Le secrétaire à la Guerre Pete Hegseth a qualifié Anthropic de "risque pour la chaîne d'approvisionnement en matière de sécurité nationale", une désignation généralement réservée aux adversaires étrangers comme Huawei.
Anthropic aurait refusé d'accorder au Pentagone un accès inconditionnel à ses modèles Claude, insistant sur des "lignes rouges" contractuelles qui interdiraient l'utilisation de la technologie pour la surveillance de masse domestique ou les armes létales entièrement autonomes.
Sam Altman, PDG d'OpenAI
OpenAI est entré dans le vide laissé par le départ de son rival. Alors que l'administration exigeait que les modèles d'IA soient disponibles pour "tous les usages légaux", OpenAI a présenté son entrée non pas comme une capitulation mais comme un compromis sophistiqué.
Dans son Ask Me Anything (AMA), Altman a soutenu qu'OpenAI avait obtenu les mêmes garde-fous de sécurité recherchés par Anthropic, mais les a obtenus grâce à une approche à plusieurs niveaux plutôt qu'à un ultimatum.
En acceptant de travailler dans le cadre des cadres juridiques existants, citant le quatrième amendement et la loi Posse Comitatus, OpenAI a efficacement désamorcé une impasse qui menaçait de laisser l'armée américaine sans capacités d'IA de pointe pendant une guerre active.
Le fil de discussion est rapidement passé des relations publiques d'entreprise à un débat brut sur l'éthique de la guerre pilotée par l'IA. L'une des questions les plus appréciées portait sur le changement fondamental dans la mission d'OpenAI : pourquoi passer de "l'amélioration humaine" à la collaboration de défense ?
La réponse d'Altman était caractéristiquement pragmatique : "Le monde est un endroit compliqué, désordonné et parfois dangereux. Nous pensons que les personnes responsables de la défense du pays devraient avoir accès aux meilleurs outils disponibles."
Altman a détaillé les mesures de sécurité techniques conçues pour empêcher l'IA de devenir un exécuteur autonome.
Celles-ci incluent une stratégie de déploiement "cloud uniquement", empêchant les modèles d'être intégrés directement dans des appareils périphériques ou du matériel d'armement, et le déploiement d'"Ingénieurs de déploiement sur le terrain" (FDE) pour superviser l'utilisation classifiée.
Cependant, le fil est resté sceptique. Les critiques ont souligné une note communautaire mettant en évidence que dans le cadre de l'USA PATRIOT Act, "l'utilisation légale" pourrait encore englober une vaste collecte de données.
Interrogé sur la probabilité que l'IA provoque une catastrophe mondiale, Altman a été inhabituellement bref, suggérant que la collaboration en matière de sécurité nationale pourrait en fait réduire le risque en maintenant l'État et les développeurs sur la même longueur d'onde.
L'un des échanges les plus révélateurs concernait la gouvernance. Interrogé sur la possibilité que le gouvernement fédéral finisse par nationaliser OpenAI, Altman a admis : "J'y ai pensé, bien sûr, mais cela ne semble pas très probable sur la trajectoire actuelle."
Cet aveu n'a guère apaisé ceux qui voient le changement de marque du département de la Guerre et la mise sur liste noire d'Anthropic comme les premiers pas vers une AGI gérée par l'État.
Les implications de cet accord s'étendent bien au-delà d'un seul contrat. En acceptant la désignation de risque pour la chaîne d'approvisionnement de son concurrent, OpenAI a implicitement validé un monde où le gouvernement peut choisir les gagnants et les perdants en fonction de l'engagement idéologique d'une entreprise envers l'utilité militaire.
Cela crée un précédent inquiétant, comme Altman l'a même reconnu, où les entreprises privées peuvent se sentir obligées de réduire leurs garde-fous éthiques pour éviter d'être étiquetées comme une menace pour la sécurité nationale.
D'un point de vue éthique, l'exigence d'humain dans la boucle reste le point le plus controversé.
Alors qu'OpenAI insiste sur le fait que les humains conserveront la responsabilité de l'usage de la force, les experts en défense dans le fil ont noté que la politique actuelle du DoW (Directive 3000.09) est notoirement vague sur ce qui constitue un contrôle humain significatif dans un combat numérique à haute vitesse.
Sam Altman
Si une IA traite les données de ciblage plus rapidement qu'un humain ne peut cligner des yeux, l'humain est-il vraiment dans la boucle ou simplement un tampon pour la décision d'une machine ?
Le risque de perte de contrôle de l'AGI n'est plus une préoccupation théorique pour un avenir lointain ; c'est une question de savoir comment ces modèles se comporteront dans l'environnement à enjeux élevés de la guerre classifiée.
Lire aussi : OpenAI lève un montant record de 110 milliards de dollars auprès d'Amazon, NVIDIA et SoftBank pour renforcer l'IA
Alors que l'AMA se terminait, l'image d'Altman dans les mémoires des utilisateurs d'OpenAI n'était pas celle d'un visionnaire technologique aux yeux étoilés, mais celle d'un diplomate numérique naviguant dans un monde de puissance dure.
Il a quitté le fil avec une conclusion sobre : l'ère du développement neutre de l'IA est terminée. La décision d'OpenAI de s'intégrer au département de la Guerre marque le début d'un nouveau chapitre où l'AGI est traité comme un atout stratégique de l'État, plutôt que comme un bien public mondial.
L'article Résumé de l'AMA de Sam Altman sur le pacte controversé d'OpenAI avec le département de la Guerre est apparu en premier sur Technext.

