US-Geheimdienste setzen aktiv fortschrittliche KI-Tools von Anthropic ein, obwohl das Pentagon das Unternehmen offiziell als „Lieferkettenrisiko" eingestuft hat, wie aus einem neuen Bericht hervorgeht, der von Axios hervorgehoben wurde.
Im Mittelpunkt der Kontroverse steht Anthropics Mythos Preview-Modell, das Quellen zufolge derzeit bei der National Security Agency (NSA) im Einsatz ist. Die Entwicklung legt eine wachsende Kluft innerhalb der US-Regierung offen, wie die schnelle KI-Einführung mit internen Sicherheitsbeschränkungen in Einklang gebracht werden kann.

Das Pentagon hat Anthropic Anfang Februar 2026 nach einem Streit über KI-Schutzmaßnahmen und militärische Nutzung auf die schwarze Liste gesetzt und offiziell gewarnt, dass seine Systeme eine potenzielle Schwachstelle in der Lieferkette darstellen. Geheimdienstbeamte scheinen jedoch die Fähigkeiten von Mythos, insbesondere im Bereich der Cybersicherheit, über diese Bedenken zu stellen.
Quellen zufolge hat die National Security Agency (NSA) Mythos übernommen, ebenso wie andere Abteilungen innerhalb des Ministeriums. Bisher sind die Einzelheiten der NSA-Nutzung von Mythos nicht öffentlich bekannt, aber anderswo wird das Modell hauptsächlich verwendet, um interne Umgebungen auf Sicherheitslücken zu scannen. Das Modell gilt als eines der fortschrittlichsten verfügbaren KI-Systeme mit starken „agentischen" Fähigkeiten, die es ihm ermöglichen, komplexe Systeme autonom zu analysieren und auszunutzen.
Berichte über die Nutzung durch NSA und DoD kommen Tage, nachdem Insider sagten, das Weiße Haus verhandle über den Zugang zu Anthropics Mythos-Modell, während die Bemühungen, das Unternehmen auf die schwarze Liste zu setzen, fortgesetzt würden. Kürzlich bestätigte CEO Dario Amodei auch, dass das Unternehmen mit Regierungsbeamten in Kontakt steht und offen für Zusammenarbeit ist.
Einige Behörden argumentieren, dass die Einschränkung des Zugangs zu einer so leistungsstarken KI die USA in einen strategischen Nachteil bringen könnte, insbesondere gegenüber geopolitischen Rivalen. Experten warnen jedoch, dass dieselben Fähigkeiten, die Mythos für die Verteidigung wertvoll machen, auch neue Risiken mit sich bringen könnten. Seine Fähigkeit, Schwachstellen in großem Umfang aufzudecken, könnte bei Missbrauch als Waffe eingesetzt werden, was Bedenken hinsichtlich einer Eskalation in der Cyber-Kriegsführung aufwirft.
Nur etwa 40 geprüfte Organisationen dürfen Mythos verwenden. Von den 40 Gruppen sind nur 12 öffentlich bekannt, und die NSA ist Berichten zufolge in der nicht aufgeführten Mehrheit versteckt. Im Vereinigten Königreich haben ähnliche Behörden wie die NSA ebenfalls festgestellt, dass sie über ihr nationales KI-Sicherheitsinstitut Zugang zum Modell haben.
Anthropic beschreibt Mythos als bemerkenswert leistungsfähig in der Cybersicherheit, fähig, tief eingebettete Fehler zu erkennen und sie unabhängig auszunutzen. Diese Kombination aus fortschrittlicher Erkennung und autonomer Analyse hat bei politischen Entscheidungsträgern bereits sowohl Interesse als auch Besorgnis geweckt.
Am Freitag traf sich Amodei mit Susie Wiles, der Stabschefin des Weißen Hauses, und Finanzminister Scott Bessent, um zu besprechen, wie das Modell sicher in die Regierungsinfrastruktur integriert werden kann. Trotz der öffentlichen Spannungen des Weißen Hauses mit Anthropic unterstreicht dieses Treffen, dass die Leistungsfähigkeit des Modells für die föderalen Sicherheitsbedürfnisse einfach zu wertvoll ist, um darauf zu verzichten.
Beide Seiten bezeichneten die Gespräche als produktiv. Das Weiße Haus teilte sogar mit: „Wir haben Möglichkeiten zur Zusammenarbeit sowie gemeinsame Ansätze und Protokolle erörtert, um die Herausforderungen im Zusammenhang mit der Skalierung dieser Technologie anzugehen."
Anthropic hat im März gegen das Pentagon zurückgeschlagen und eine Klage eingereicht, um die Einstufung als Lieferkettenrisiko aufzuheben, die seine Regierungsverträge bedrohte. Dies war das erste Mal, dass das Etikett „nicht sicher genug" einem inländischen Anbieter angeheftet wurde, was ihre Tools effektiv von der standardmäßigen Regierungsnutzung ausschloss.
Anthropics Rechtsteam hat die „Risiko"-Bezeichnung als Racheaktion bezeichnet, nachdem Amodei die Anfrage des DoD abgelehnt hatte, die KI in vollautonome Waffensysteme und Massenüberwachung im Inland zu integrieren.
Wie Cryptopolitan zuvor berichtete, stellte sich ein Richter eines kalifornischen Bezirksgerichts auf die Seite von Anthropic und blockierte vorübergehend das „Lieferkettenrisiko"-Label. Dennoch hat ein Bundesberufungsgericht diese Aussetzung seither aufgehoben, sodass die Bezeichnung vorerst bestehen bleibt.
In den Anfängen der Bemühungen um die schwarze Liste hatte Präsident Donald Trump behauptet, dass die radikalen Linken, die das Unternehmen leiten, dem Verteidigungsministerium Bedingungen diktieren wollten. Er argumentierte: „Wir brauchen es nicht, wir wollen es nicht und werden nicht mehr mit ihnen Geschäfte machen!"
Im Moment glauben einige im DoD immer noch, dass Anthropics Weigerung, vollständig zu kooperieren, beweist, dass sie ihre Technologie während eines Krieges abschalten würden, was sie zu einem Fluchtrisiko im Kampf macht. Andere Regierungsbeamte sind jedoch begierig darauf, das Kriegsbeil zu begraben, nur um an die überlegene Technologie des Unternehmens zu gelangen.
Lassen Sie die Bank immer noch den besten Teil behalten? Sehen Sie sich unser kostenloses Video darüber an, Ihre eigene Bank zu sein.


