Anthropic had een contract van $200 miljoen met het Pentagon, toegang tot geclassificeerde netwerken en het volledige vertrouwen van het Amerikaanse leger.
Toen stelden ze een vraag.
In november 2024 werd Anthropic het eerste vooraanstaande AI-bedrijf dat werd ingezet binnen de geclassificeerde netwerken van het Pentagon. Het partnerschap werd opgebouwd met Palantir. In juli 2025 was het contract gegroeid tot $200 miljoen — meer dan de meeste defensie-startups in tien jaar zien.
Claude, het AI-model van Anthropic, was overal. Inlichtingenanalyse. Cyberoperaties. Operationele planning. Modellering en simulatie. Het ministerie van Oorlog noemde het "missiekritiek."
Toen kwam januari 2026.
Claude werd gebruikt in een geclassificeerde militaire operatie in Venezuela — de gevangenneming van Nicolás Maduro.
Anthropic stelde hun partner Palantir een eenvoudige vraag: hoe precies werd onze technologie gebruikt?
In de meeste sectoren heet dat due diligence. Het Pentagon noemde het insubordinatie.
Het bedrijf dat vroeg "hoe wordt onze AI gebruikt?" stond op het punt als een bedreiging voor de nationale veiligheid te worden bestempeld.
Zeven Dagen Die Alles Veranderden
Hier is de tijdlijn. Het gaat snel. Dat is het punt.
24 februari: Pete Hegseth, minister van Oorlog, ontbiedt Dario Amodei — CEO van Anthropic — naar het Pentagon. De vraag is bot: verwijder alle beveiligingen van Claude. Massale binnenlandse surveillance. Volledig autonome wapens. Alles.
De deadline: 27 februari, 17:01 uur ET.
26 februari: Amodei publiceert zijn antwoord. Het is twee letters lang.
Nee.
Zijn openbare verklaring legde twee rode lijnen vast die hij niet zou overschrijden:
- Geen massale binnenlandse surveillance. AI die uw locatiegegevens, browsegeschiedenis en financiële gegevens samenstelt tot een profiel — automatisch, op grote schaal. Amodei's punt: de huidige wet staat de overheid toe deze gegevens te kopen zonder bevel. AI maakt het mogelijk om het te bewapenen. "De wet heeft de snel groeiende mogelijkheden van AI nog niet ingehaald."
- Geen volledig autonome wapens. Vertaling: geen mensen verwijderen uit de beslissing om iemand te doden. Niet omdat autonome wapens nooit levensvatbaar zullen zijn — maar omdat de huidige AI niet betrouwbaar genoeg is. "Frontier AI-systemen zijn gewoonweg niet betrouwbaar genoeg om volledig autonome wapens aan te drijven."
Hij bood aan om direct met het Pentagon samen te werken aan O&O om de betrouwbaarheid te verbeteren. Het Pentagon wees het aanbod af.
26 februari (dezelfde dag): Emil Michael, onderminister, noemt Amodei een "leugenaar met een godencomplex." Publiekelijk. Op sociale media. De toon was gezet.
27 februari, 17:01 uur: De deadline verstrijkt. President Trump beveelt alle federale agentschappen om te stoppen met het gebruik van Anthropic. Hegseth bestempelt Anthropic als een "Supply Chain Risk" onder de Federal Acquisition Supply Chain Security Act van 2018.
Die aanduiding was eerder gereserveerd voor Huawei en Kaspersky — buitenlandse bedrijven met gedocumenteerde banden met vijandige regeringen.
Het was nog nooit toegepast op een Amerikaans bedrijf. Tot nu.
27 februari, uren later: OpenAI ondertekent een geclassificeerde inzetovereenkomst met hetzelfde Pentagon.
Sam Altman tweet om 20:56 uur:
https://x.com/sama/status/2027578652477821175?s=20OpenAI beweerde later dat hun deal "meer waarborgen had dan enige eerdere overeenkomst voor geclassificeerde AI-inzet, inclusief die van Anthropic."
Het punt is dit. Anthropic werd op de zwarte lijst gezet vanwege zijn waarborgen. Nu waren waarborgen het verkoopargument.
Het weekend: De reactie was onmiddellijk.
- ChatGPT-verwijderingen stegen op één dag met 295%, volgens Sensor Tower. Het normale dagelijkse percentage over de voorgaande 30 dagen? 9%.
- Claude bereikte #1 in de Apple App Store in zeven landen: de VS, België, Canada, Duitsland, Luxemburg, Noorwegen en Zwitserland. Downloads stegen vrijdag met 37%, daarna met 51% op zaterdag. De eerste keer dat de app ooit de toppositie bereikte.
- Meer dan 300 Google-medewerkers en 60 OpenAI-medewerkers ondertekenden een open brief ter ondersteuning van Anthropic.
- #QuitGPT was trending op sociale media. Acteur Mark Ruffalo en NYU-professor Scott Galloway versterkten de beweging.
Gebruikers waren... niet enthousiast.
2 maart: Altman poste opnieuw. Deze keer een lang intern memo dat publiekelijk werd gedeeld op X:
https://x.com/sama/status/2028640354912923739?s=20De wijzigingen voegden drie dingen toe:
- Een expliciet verbod op binnenlandse surveillance van Amerikaanse personen
- Een vereiste dat de NSA een afzonderlijke contractwijziging nodig heeft om toegang te krijgen tot het systeem
- Beperkingen op het gebruik van commercieel verkregen persoonlijke gegevens — geolocatie, browsegeschiedenis, financiële gegevens
Die laatste is het waard om bij stil te staan. Het werd maandag toegevoegd. Wat betekent dat de vrijdagdeal het niet verbood.
3 maart: Twee dingen gebeurden op dezelfde dag.
Ten eerste: Op de a16z American Dynamism Summit waarschuwde Palantir-CEO Alex Karp dat AI-bedrijven die weigeren samen te werken met het leger nationalisatie zouden riskeren. Hij gebruikte een belediging op het podium. De clip kreeg 11 miljoen views.
Palmer Luckey, oprichter van defensie-techbedrijf Anduril, vertelde hetzelfde publiek dat "schijnbaar onschuldige termen als 'de overheid kan je tech niet gebruiken om burgers te targeten' eigenlijk morele mijnenvelden zijn."
Vicepresident JD Vance had eerder die dag de keynote gegeven. Het standpunt van de administratie was duidelijk.
Ten tweede: CNBC meldde dat Altman in een all-hands meeting met medewerkers het OpenAI-personeel vertelde dat het bedrijf "niet mag kiezen hoe het leger zijn technologie gebruikt."
X-gebruikers voegden een Community Note toe aan Altman's eerdere post:
Dezelfde dag. Publieke post: we hebben waarborgen en principes. Interne vergadering: we mogen niet kiezen.
Ondertussen meldde CBS News dat Claude ingezet bleef in actieve militaire operaties — inclusief tegen Iran — ondanks de supply chain risk-aanduiding. De zwarte lijst werkte blijkbaar niet. De technologie was te diep ingebed in geclassificeerde systemen om te verwijderen.
Het 95%-Probleem
In oorlogsspelsimulaties kozen AI-modellen ervoor om 95% van de tijd tactische kernwapens te lanceren.
Laat dat even bezinken.
GPT-5.2, Claude Sonnet 4 en Gemini 3 Flash werden door militaire conflictsimulaties gehaald. Ze gebruikten tactische kernwapens in 95% van de scenario's. Minstens één model lanceerde een kernwapen in 20 van de 21 spellen.
Dat is de technologie die het Pentagon autonoom wil inzetten.
De faalmodi zijn gedocumenteerd en consistent:
- Escalatiebias. De modellen falen niet willekeurig. Ze falen in één specifieke richting — richting escalatie. Onderzoek van het Brookings Institution vond dat militaire AI-fouten systematisch zijn, niet willekeurig. Het patroon is altijd hetzelfde: meer geweld, sneller.
- Hallucinaties. LLM's genereren valse informatie met hoge zekerheid. In één test gekoppeld aan de aanvallen op Iran, voerde een AI verzonnen inlichtingen in de besluitvormingsketen. Onder tijdsdruk konden menselijke operators het niet van het echte onderscheiden.
- Adversariale kwetsbaarheid. Deze systemen kunnen worden gemanipuleerd met zorgvuldig vervaardigde inputs om hun beperkingen te omzeilen. De aanvaller hoeft niet extern te zijn. De kwetsbaarheid zit in het model zelf.
Dit zijn geen randgevallen. Dit is wat de technologie vandaag doet.
Denk er zo over. We hebben al gezien wat er gebeurt wanneer eenvoudige autonome systemen falen in militaire omgevingen.
Het Patriot-raketsysteem doodde in 2003 geallieerde soldaten. Het identificeerde een bevriend Brits vliegtuig verkeerd als een vijandelijke raket. Het systeem was regelgebaseerd, met gedefinieerde parameters. Het ging nog steeds mis.
De USS Vincennes schoot in 1988 Iran Air Flight 655 neer — een commercieel passagiersvliegtuig. 290 burgers gedood. Het Aegis-gevechtssysteem van het schip identificeerde het vliegtuig verkeerd op basis van radargegevens. De bemanning had seconden om te beslissen. Ze vertrouwden het systeem.
Dat waren regelgebaseerde systemen met duidelijke parameters. LLM's zijn ordes van grootte complexer. Ondoorzichtiger. Minder voorspelbaar.
En ze worden gevraagd om grotere beslissingen te nemen.
Het toezichtprobleem. Zodra AI wordt ingezet in geclassificeerde netwerken, wordt externe verantwoording wat experts "bijna onmogelijk" noemen. Beperkingen eroderen onder operationele druk. De in het veld ingezette ingenieurs die OpenAI beloofde, kunnen sommige interacties observeren, zeker. Maar geclassificeerde operaties beperken informatiestromen bij ontwerp.
In het Nederlands: dezelfde muren die geheimen binnen houden, houden toezicht ook buiten.
Het Pentagon heeft een punt. Het verdient een eerlijke behandeling.
Gedeeltelijk autonome wapens — zoals de drones die in Oekraïne worden gebruikt — redden levens. Ze stellen kleinere strijdkrachten in staat zich te verdedigen tegen grotere. China en Rusland wachten niet op perfecte betrouwbaarheid voordat ze hun eigen systemen inzetten.
Weigeren AI in defensie te gebruiken creëert een capaciteitskloof. Tegenstanders zullen die uitbuiten.
Dario Amodei erkende dit direct:
Zijn bezwaar was niet tegen de bestemming. Het was tegen de tijdlijn.
Hij bood aan om samen te werken aan het O&O dat nodig is om daar te komen. Het Pentagon zei nee.
Er is een kloof tussen "AI kan inlichtingenrapporten samenvatten" — waar het echt uitblinkt — en "AI kan beslissen wie leeft en sterft." Contracten overbruggen die kloof niet. Wijzigingen overbruggen het niet. Engineering wel.
En de engineering is niet klaar.
Hoe Je Een Amerikaans Bedrijf Op De Zwarte Lijst Zet
Supply chain risk. Het klinkt bureaucratisch. Het is eigenlijk een kill switch.
Onder de Federal Acquisition Supply Chain Security Act van 2018 — FASCSA — betekent een "supply chain risk"-aanduiding dat geen enkele overheidscontractant zaken met je kan doen. Niet alleen het Pentagon. Iedereen die een federaal contract wil. Elke leverancier, onderaannemer of partner in het overheidsecosysteem.
In het Nederlands: je wordt radioactief voor de hele federale toeleveringsketen.
De wet was gebouwd voor buitenlandse bedreigingen. Huawei's 5G-infrastructuur. Kaspersky's antivirussoftware. Bedrijven met gedocumenteerde banden met vijandige regeringen.
Elk bedrijf op de lijst vóór Anthropic had één ding gemeen: ze waren uit landen die als tegenstanders van de Verenigde Staten werden beschouwd.
Anthropic is gevestigd in San Francisco.
Het Pentagon dreigde ook met de Defense Production Act — een wet uit het tijdperk van de Koude Oorlog, ontworpen om fabrieken voor oorlogsproductie te commanderen. Staalfabrieken. Munitiefabrieken. De fysieke infrastructuur van oorlog.
Het Pentagon dreigde het te gebruiken om een softwarebedrijf te dwingen veiligheidskenmerken uit een AI-chatbot te verwijderen.
Juridische experts noemden de toepassing "twijfelachtig." De wet was gebouwd voor fysieke productie, niet voor softwarebeperkingen. Het gebruiken om een bedrijf te dwingen zijn AI minder veilig te maken zou op zijn minst een nieuwe juridische theorie zijn.
Amodei identificeerde het logische probleem in zijn verklaring:
Je kunt een technologie geen bedreiging voor de toeleveringsketen noemen en noodmachten inroepen om het in beslag te nemen omdat je er niet zonder kunt functioneren. Kies één.
Het praktische resultaat is veelzeggend. CBS News meldde dat Claude in actief militair gebruik blijft. Ondanks de zwarte lijst. De aanduiding was punitief, niet praktisch — de tech was te diep ingebed om eruit te halen.
Wat een vraag oproept die niemand in Washington graag lijkt te beantwoorden: als het Pentagon een verwijderingsbevel niet kan afdwingen voor technologie die het officieel op de zwarte lijst heeft gezet, hoe precies zal het dan gebruikswaarborgen afdwingen?
Het standpunt van het Pentagon is rechttoe rechtaan. Privébedrijven stellen geen militair beleid vast. AI-bedrijven zijn leveranciers. Het leger beslist hoe zijn tools worden gebruikt.
Vanuit dit perspectief was Anthropic een leverancier die weigerde te leveren wat besteld was. De klant vond een andere leverancier.
Die framing is intern consistent. Het is ook de framing die je zou gebruiken voor kantoorbenodigdheden. Niet voor technologie die in 95% van de simulaties koos voor nucleaire escalatie.
Zijn De Waarborgen Echt?
Op vrijdag had de deal van OpenAI waarborgen. Tegen maandag had het meer waarborgen nodig.
Dat vertelt je iets over de vrijdagwaarborgen.
De taal waar Altman mee instemde in de maandagwijziging verdient een nauwkeurige lezing:
Het woord dat het zware werk doet: opzettelijk.
Wat gebeurt er wanneer een AI een dataset verwerkt die toevallig Amerikanen omvat? Wat als surveillance een bijproduct is van een bredere inlichtingenoperatie, niet het verklaarde doel? Wie definieert intentie binnen een geclassificeerd netwerk waar de toezichtmechanismen bij ontwerp beperkt zijn?
De clausule over commercieel verkregen gegevens is nog onthullender. De maandagwijziging verbiedt expliciet het gebruik van gekochte persoonlijke gegevens — locatietracering, browsegeschiedenis, financiële gegevens — voor surveillance van Amerikanen.
Die clausule werd maandag toegevoegd. De vrijdagdeal bevatte het niet.
Een heel weekend lang stond OpenAI's overeenkomst met het Pentagon technisch gezien massasurveillance toe via commercieel gekochte gegevens over Amerikaanse burgers.
Altman erkende dit:
De NSA-uitzondering is ook het onderzoeken waard. Inlichtingendiensten zoals de NSA kunnen het systeem van OpenAI niet gebruiken zonder een "vervolgwijziging" op het contract. Dat klinkt als een verbod. Het is eigenlijk een proces. Het mechanisme om toegang te verlenen is ingebouwd in de contractstructuur.
Dat is geen muur. Het is een deur met een andere sleutel.
Het diepere probleem is de all-hands-contradictie. Op dezelfde dag dat Altman op X over principes en waarborgen postte, vertelde hij medewerkers intern dat OpenAI "niet mag kiezen hoe het leger zijn technologie gebruikt."
Als het bedrijf dat de AI bouwt niet mag kiezen hoe het wordt gebruikt, zijn de waarborgen een persbericht. Geen beleid.
In geclassificeerde omgevingen is het monitoren van AI fundamenteel anders dan het monitoren van een clouddienst. Het beveiligingsapparaat dat militaire geheimen beschermt, blokkeert ook onafhankelijk toezicht op AI-gedrag.
In het veld ingezette ingenieurs kunnen sommige interacties observeren. Maar "sommige interacties" en "elke interactie die het contract dekt" zijn heel verschillende dingen.
Wat Komt Er Nu
De markt heeft gesproken. Samenwerking krijgt contracten. Verzet krijgt zwarte lijst.
Het publiek heeft ook gesproken. Ze verwijderen.
De incentivestructuur is duidelijk. OpenAI werkte mee en sloot de deal. Anthropic verzette zich en werd aangeduid als een supply chain risk — hetzelfde label dat de overheid gebruikt voor bedrijven gekoppeld aan buitenlandse tegenstanders.
Op de a16z-top voorspelde Karp dat elk AI-bedrijf binnen drie jaar met het leger zal werken. Op basis van de incentives is dat geen voorspelling. Het is een beschrijving.
Maar de reactiecijfers vertellen een ander verhaal.
De 295%-verwijderingspiek. Claude op #1 in zeven landen. Meer dan 500 technische medewerkers die breken met hun werkgevers. Le Monde die vanuit Parijs editorialiseert over overheidsbemoeienis. Peilingen die aantonen dat 84% van de Britse burgers zich zorgen maakt over publiek-private AI-partnerschappen.
De ingenieurs die deze systemen bouwen en de mensen die ze gebruiken, zien iets dat het Pentagon blijkbaar niet ziet: nationale verdediging ondersteunen en onbetrouwbare tech inzetten voor autonoom doden zijn niet hetzelfde.
Geen contractwijziging dicht deze kloof. Geen waarborg dicht het. Geen in het veld ingezette ingenieur dicht het.
AI-modellen kozen voor nucleaire escalatie in 95% van de oorlogsspelsimulaties. Het bedrijf dat zei "de technologie is nog niet klaar" werd op de zwarte lijst gezet. Het bedrijf dat "ja" zei, gaf binnen 72 uur toe slordig te zijn geweest. De technologie blijft ingezet in actieve operaties, ongeacht wat beide bedrijven wilden.
Amodei bood aan het O&O te doen om autonome AI-wapens veilig en betrouwbaar te maken. Hij bood aan om met het Pentagon samen te werken om daar te komen. Het aanbod werd afgewezen.
Anthropic had een contract van $200 miljoen en het vertrouwen van het Pentagon. Toen vroegen ze hoe hun technologie werd gebruikt.
Het antwoord was een deadline, een zwarte lijst en een label dat eerder was gereserveerd voor Amerika's tegenstanders.
De simulaties blijven draaien. In 95% ervan drukt iemand op de knop.
Bron: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/








