De Amerikaanse strijdkrachten zouden tijdens een grote luchtaanval in Iran hebben vertrouwd op Anthropic's Claude AI, een ontwikkeling die enkele uren na President Donald Trump naar buiten kwamDe Amerikaanse strijdkrachten zouden tijdens een grote luchtaanval in Iran hebben vertrouwd op Anthropic's Claude AI, een ontwikkeling die enkele uren na President Donald Trump naar buiten kwam

VS-militair gebruikte Anthropic voor aanval op Iran ondanks verbod van Trump: WSJ

2026/03/01 19:49
7 min lezen
Voor feedback of opmerkingen over deze inhoud kun je contact met ons opnemen via crypto.news@mexc.com
Amerikaanse leger gebruikte Anthropic voor aanval op Iran ondanks Trump's verbod: WSJ

Het Amerikaanse leger zou hebben vertrouwd op Anthropic's Claude AI tijdens een grote luchtaanval in Iran, een ontwikkeling die aan het licht kwam slechts enkele uren nadat president Donald Trump federale instanties opdroeg het gebruik van het model te stoppen. Commando's in de regio, waaronder CENTCOM, gebruikten naar verluidt Claude ter ondersteuning van inlichtingenanalyse, doelcontrole en slagveldsimulaties. De episode benadrukt hoe diep AI-tooling is verweven in defensieoperaties, zelfs terwijl beleidsmakers aandringen op het verbreken van banden met bepaalde leveranciers. De episode onderstreept een spanning tussen uitvoerende richtlijnen en automatisering ter plaatse die van invloed kan zijn op inkoop en risicobeheer binnen defensieprogramma's.

Belangrijkste punten

  • <li Claude AI werd naar verluidt ingezet voor inlichtingenanalyse, doelcontrole en slagveldsimulaties in verband met een grote luchtaanval, enkele uren na een richtlijn van het Witte Huis om het gebruik van het systeem te pauzeren.
  • <li Anthropic had eerder een meerjarig Pentagon-contract ter waarde van maximaal $200 miljoen veiliggesteld, met samenwerkingsverbanden met Palantir en Amazon Web Services om geclassificeerde workflows voor Claude mogelijk te maken.

  • <li De Trump-administratie instrueerde instanties om te stoppen met samenwerken met Anthropic en droeg het ministerie van Defensie op het bedrijf als een potentieel veiligheidsrisico te behandelen nadat contractbesprekingen over onbeperkt militair gebruik waren mislukt.

  • <li Het Pentagon begon met het identificeren van vervangende aanbieders en ging over tot het inzetten van andere AI-modellen op geclassificeerde netwerken, waaronder een samenwerking met OpenAI voor dergelijke implementaties.

  • <li Anthropic CEO Dario Amodei verzette zich publiekelijk tegen het verbod en voerde aan dat bepaalde militaire toepassingen ethische grenzen overschrijden en onder menselijk toezicht moeten blijven in plaats van geautomatiseerd, massaal toezicht of autonome bewapening.

Sentiment: Neutraal

Marktcontext: De episode bevindt zich op het kruispunt van defensie-inkoop, AI-ethiek en risicobeheer op het gebied van nationale veiligheid, terwijl instanties de afhankelijkheid van leveranciers en de classificatie van AI-tools voor gevoelige operaties opnieuw beoordelen.

Waarom het belangrijk is

Het incident biedt een zeldzame blik op hoe commerciële AI-modellen worden geïntegreerd in militaire workflows met hoge inzet. Claude, oorspronkelijk ontworpen voor brede cognitieve taken, ondersteunde naar verluidt inlichtingenanalyse en de modellering van slagveldscenario's, wat wijst op een niveau van operationeel vertrouwen dat zich uitstrekt van labomgevingen tot echte missies. Dit roept belangrijke vragen op over de betrouwbaarheid, controle en beheersbaarheid van AI in gevechtsplanning, vooral wanneer overheidsbeleidsignalen snel verschuiven rond leveranciersgebruik.

Op beleidsniveau benadrukt de wrijving tussen een contractrelatie en een presidentiële richtlijn een breder debat over hoe AI-leveranciers moeten worden behandeld in beveiligde omgevingen. Anthropic's weigering om onbeperkt militair gebruik toe te staan, sluit aan bij zijn verklaarde ethische grenzen, wat signaleert dat aanbieders uit de particuliere sector mogelijk steeds vaker zullen terugdeinzen voor configuraties die zij als ethisch problematisch beschouwen. De reactie van het Pentagon—het wenden tot alternatieve leveranciers voor geclassificeerde workloads—illustreert hoe defensieafdelingen AI-ecosystemen kunnen diversifiëren om risicoblootstelling te verminderen, terwijl ze capaciteit in gevoelige operaties behouden.

De spanning raakt ook de concurrentiedynamiek van de AI-as-a-service-markt. Nu OpenAI naar verluidt bijspringt om modellen voor geclassificeerde netwerken te leveren, zal de sector waarschijnlijk getuige zijn van voortdurende experimenten en heronderhandeling van voorwaarden rond beveiligingsclassificaties, gegevensbeheer en toeleveringsketenrisico. De situatie onderstreept de noodzaak van rigoureuze governancekaders die zich kunnen aanpassen aan snelle technologische verandering zonder de operationele veiligheid of ethische normen in gevaar te brengen.

Wat te volgen

  • Regelgevende en beleidsmatige updates van het ministerie van Defensie en het Witte Huis met betrekking tot AI-leveranciersgebruik en beveiligingsclassificaties.
  • Nieuwe inkoop of partnerschappen die AI-capaciteiten voor geclassificeerde missies uitbreiden, inclusief mogelijke overeenkomsten met alternatieve aanbieders om Anthropic's aanbod te vervangen of aan te vullen.
  • Publieke verklaringen van Anthropic en OpenAI over de aard van implementaties op beveiligde netwerken en eventuele nieuwe beperkingen of waarborgen.
  • Verdere details over de uitkomst van de eerdere onderhandelingen over onbeperkt gebruik en hoe dat toekomstige defensiecontracten met AI-leveranciers zal vormgeven.

Bronnen & verificatie

  • Rapporten over het gebruik van Claude bij een operatie in het Midden-Oosten en het stopbevel van de administratie, inclusief bewijsmateriaal besproken met bronnen die bekend zijn met de zaak.
  • Achtergrond over Anthropic's Pentagon-contract, inclusief de meerjarige regeling ter waarde van maximaal $200 miljoen en partnerschappen met Palantir en AWS voor geclassificeerde workflows.
  • Verklaringen van Anthropic's leiderschap en publieke opmerkingen over militair gebruik en ethische grenzen, inclusief interviews en officiële reacties op regelgevende acties.
  • OpenAI's implementatie op geclassificeerde netwerken en gerelateerde discussies, inclusief publiek discours rond een deal met het Amerikaanse leger en bijbehorende berichtgeving.
  • Publieke discussies en socialemediareferenties in verband met de OpenAI-regeling met het leger, zoals berichten die reacties uit de sector documenteren.

Anthropic's Claude in het vizier: AI, ethiek en beleid botsen in defensieoperaties

Functionarissen beschreven Claude als spelend een rol in inlichtingenanalyse en operationele planning tijdens een grote luchtaanval in Iran, een bewering die illustreert hoe dicht AI-tools zijn gekomen bij besluitvorming op het slagveld. Terwijl de Trump-administratie overging tot het verbreken van banden met Anthropic, bleef het operationele gebruik van Claude naar verluidt bestaan in bepaalde commando's, wat een kloof onderstreept tussen beleidsverklaringen en dagelijkse defensieworkflows. De praktische realiteit is dat AI-gestuurde analyses, simulaties en risico-inschattingen kunnen doordringen in missieplanning, zelfs terwijl instanties leveranciersrisico's en nalevingsvereisten binnen afdelingen opnieuw beoordelen.

De eerdere betrokkenheid van het Pentagon bij Anthropic was substantieel: een meerjarig contract ter waarde van maximaal $200 miljoen en een netwerk van partnerschappen, waaronder Palantir en Amazon Web Services, die het gebruik van Claude bij de behandeling van geclassificeerde informatie en inlichtingenverwerking mogelijk maakten. De regeling benadrukte een bredere strategie: diversifieer AI-capaciteiten binnen een vertrouwd ecosysteem om veerkracht in gevoelige omgevingen te waarborgen. Toen de beleidsrichting echter verschoof, ging de administratie over tot het herformuleren van de leveranciersrelatie, wat een op risico gebaseerde herkalibratie signaleerde in plaats van een algehele terugtocht uit AI-ondersteunde defensieoperaties.

Achter de schermen kwamen spanningen tussen overheidsbeleid en ethiek in de particuliere sector naar voren. Defensieminister Pete Hegseth zou Anthropic onder druk hebben gezet om onbeperkt militair gebruik van zijn modellen toe te staan, een verzoek dat het leiderschap van Anthropic afwees als het overschrijden van ethische grenzen die het bedrijf niet zou overschrijden. Het standpunt van het bedrijf is gebaseerd op de overtuiging dat bepaalde toepassingen—massaal binnenlands toezicht en volledig autonome wapens—diepgaande ethische en juridische zorgen oproepen, en dat betekenisvol menselijk toezicht de overgang van concept naar uitvoering moet overleven. Deze positie sluit aan bij lopende debatten over hoe snelle AI-adoptie moet worden gebalanceerd met waarborgen tegen misbruik en onbedoelde gevolgen.

Het Pentagon bleef niet stilzitten. Geconfronteerd met een mogelijk leveranciersgat, begon het vervangingen op een rij te zetten en bereikte naar verluidt een overeenkomst met OpenAI om modellen op geclassificeerde netwerken te implementeren. De verschuiving onderstreept een bredere strategische zet om continuïteit van capaciteit te waarborgen, zelfs terwijl leveranciers hun voorwaarden voor gevoelige implementaties opnieuw evalueren. Het contrast tussen Anthropic's ethische grenzen en de operationele behoeften van het departement onthult een bredere beleidsspanning: hoe transformatieve technologie verantwoord in te zetten terwijl nationale veiligheidsimperatieven behouden blijven.

Branchewaarnemers merkten ook de ecosysteemeffecten van dergelijke overgangen op. De AI-markt evolueert naar meer modulaire, veiligheidsgecontroleerde configuraties die kunnen worden verwisseld of geüpgraded naarmate beleid en risicobeoordelingen verschuiven. De OpenAI-regeling signaleert in het bijzonder een aanhoudende belangstelling voor het integreren van toonaangevende modellen in defensienetwerken, zij het onder strenge governance en toezicht. Hoewel dit traject verbeterde capaciteit voor militaire analisten en planners belooft, verhoogt het ook het toezicht op gegevensverwerking, modelinterpreteerbaarheid en het risico van overmatige afhankelijkheid van geautomatiseerde systemen voor kritieke beslissingen.

Anthropic's CEO, Dario Amodei, heeft betoogd dat hoewel AI menselijk oordeel kan versterken, het dit niet kan vervangen in kerndefensiebeslissingen. In publieke opmerkingen herbevestigde hij de toewijding van het bedrijf aan ethische grenzen en het handhaven van menselijke controle in cruciale momenten. De spanning tussen het behouden van toegang tot geavanceerde tools en het handhaven van ethische normen zal waarschijnlijk toekomstige onderhandelingen met federale instanties vormgeven, vooral naarmate wetgevers en toezichthouders de rol van AI in civiele en nationale veiligheidscontexten onder de loep nemen.

Naarmate het landschap evolueert, zullen de bredere crypto- en techgemeenschappen in de gaten houden hoe deze beleids- en inkoopdinamiek de ontwikkeling en implementatie van geavanceerde AI-systemen in omgevingen met hoge inzet beïnvloedt. De episode dient als casestudy in het balanceren van snelle technologische vooruitgang met governance, toezicht en de blijvende vraag waar menselijke verantwoordelijkheid eindigt en geautomatiseerde besluitvorming begint.

Dit artikel werd oorspronkelijk gepubliceerd als US military used Anthropic for Iran strike despite Trump's ban: WSJ op Crypto Breaking News – uw betrouwbare bron voor cryptonieuws, Bitcoin-nieuws en blockchain-updates.

Marktkans
OFFICIAL TRUMP logo
OFFICIAL TRUMP koers(TRUMP)
$2.841
$2.841$2.841
-2.67%
USD
OFFICIAL TRUMP (TRUMP) live prijsgrafiek
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met crypto.news@mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!