BitcoinWorld
Claude AI 悖論:美軍在伊朗衝突中部署 Anthropic 系統,國防承包商卻紛紛撤離
華盛頓特區 — 2025年6月9日:國防技術領域出現了一個顯著的悖論,美國軍方正積極部署 Anthropic 的 Claude 人工智慧系統用於與伊朗持續衝突中的目標決策,但與此同時,主要國防承包商和分包商卻快速放棄該平台。這種矛盾局面源於重疊的政府限制和不斷演變的國防政策,這些因素在整個軍工複合體中造成了運營混亂。
根據最近的報導,美國軍方持續使用 Anthropic 的 Claude AI 系統進行針對伊朗陣地的關鍵目標行動。具體而言,五角大廈官員使用該人工智慧平台與 Palantir 的 Maven 系統結合,規劃並執行空襲。這些整合系統建議數百個潛在目標,發布精確的位置座標,並根據戰略重要性排定目標優先順序。
華盛頓郵報的報導揭示,該系統在持續的軍事行動期間執行「即時目標定位和目標優先排序」功能。因此,儘管圍繞其軍事應用的爭議日益增加,Anthropic 的技術仍直接支援作戰決策。即使政治指令旨在限制其在政府機構中的部署,該系統仍繼續使用。
川普總統最近指示民間機構立即停止使用 Anthropic 產品。然而,國防部收到了不同的指令。國防官員獲得了六個月的時間逐步停止與該 AI 公司的合作。這種相互矛盾的指導在整個國防機構中造成了運營混亂。
此外,這些限制的時機尤其成問題。在總統指令發布的第二天,美國和以色列部隊對德黑蘭發動了突襲。這次軍事行動在政府能夠完全實施其政策變更之前就引發了持續衝突。結果是出現了一種運營現實,即 Anthropic 模型在支援現役作戰的同時面臨潛在禁令。
本週,主要國防產業參與者正積極用競爭的 AI 系統替換 Anthropic 模型。根據路透社報導,洛克希德·馬丁公司領導這一轉型。其他國防承包商也紛紛採取類似路徑遠離 Claude AI 平台。這種企業遷移在國防供應鏈中造成了重大干擾。
此外,眾多分包商在 AI 採購方面面臨艱難決定。J2 Ventures 的一位管理合夥人告訴 CNBC,十家投資組合公司「已經放棄在國防用例中使用 Claude」。這些公司現在正積極尋找替代的人工智慧解決方案來取代該服務。國防技術領域因此經歷快速重組。
| 組織 | 採取的行動 | 時間表 |
|---|---|---|
| 洛克希德·馬丁 | 用競爭對手替換 Claude | 本週 |
| J2 Ventures 投資組合公司 | 10家公司放棄 Claude | 積極替換過程 |
| 國防部 | 繼續使用並在6個月內逐步停止 | 持續衝突行動 |
| 民間機構 | 立即停止使用 | 總統指令 |
國防部長 Pete Hegseth 承諾將 Anthropic 指定為供應鏈風險。然而,目前尚未採取任何正式步驟朝向這一指定。因此,目前沒有法律障礙阻止軍方使用 Claude 系統。這種監管不確定性為國防規劃者和承包商都造成了運營挑戰。
這一潛在指定可能會引發來自 Anthropic 及其支持者的激烈法律挑戰。法律專家預計將出現有關人工智慧採購和國家安全要求的複雜訴訟。與此同時,軍事行動繼續依賴可能很快面臨正式限制的技術。
這種情況突顯了軍事人工智慧採用中的根本緊張關係。當前爭議中浮現出幾個關鍵問題:
此外,承包商的快速撤離顯示了政策不確定性如何破壞國防技術市場的穩定。當監管基礎意外轉變時,企業無法維持長期發展路線圖。這種不穩定性最終可能阻礙軍事技術進步。
以往的國防技術爭議為理解當前事件提供了相關背景。五角大廈的 Maven 計畫在人工智慧倫理方面面臨類似審查。此外,Google 員工在2018年抗議該公司的軍事 AI 工作,導致政策變更。這些歷史先例說明了國防應用中技術能力與倫理考量之間反覆出現的緊張關係。
此外,當前局勢呼應了關於具有民用和軍事應用的「兩用」技術的更廣泛辯論。為商業目的開發的人工智慧系統越來越多地發現軍事應用,造成複雜的監管挑戰。隨著 AI 能力在各個領域的進步,這一趨勢可能會繼續。
像 Claude 這樣的現代軍事人工智慧系統展示了卓越的技術能力。這些系統處理大量情報數據以識別潛在目標。它們同時分析衛星圖像、信號情報和人力情報報告。此外,它們根據多種戰略因素排定目標優先順序,包括:
這些系統以越來越高的自主性運作,儘管人類操作員保留最終決策權。Claude 與 Palantir 的 Maven 系統的整合代表了當前最先進的軍事 AI 部署。這種技術複雜性使得系統一旦投入運作就難以替換。
國防承包商在遠離 Claude 的過程中探索多種替代人工智慧解決方案。幾家公司正在開發用於軍事應用的內部 AI 能力。其他公司則與專門專注於政府合約的專業國防 AI 公司合作。這種多元化策略旨在減少對任何單一 AI 提供商的依賴。
與此同時,更廣泛的 AI 產業密切觀察這些發展。科技公司必須決定是否在潛在爭議下追求國防合約。一些公司建立了反對軍事工作的明確政策,而另一些公司則為政府業務創建專門部門。這些戰略決策將在未來數年塑造國防技術發展。
全球對美國軍事 AI 部署的反應差異顯著。盟國監測這些發展以獲得對自身國防技術策略的見解。敵對國家可能會因此加速其軍事 AI 計畫。國際社會繼續辯論自主武器系統的適當治理框架。
聯合國關於致命自主武器系統的討論在這些發展中獲得了新的緊迫性。由於國家安全優先事項不同,建立國際規範的外交努力面臨挑戰。然而,大多數國家認識到需要某種形式的軍事 AI 應用治理框架。
Claude AI 悖論揭示了現代國防技術採用中的根本緊張關係。美國軍方繼續在伊朗衝突中部署 Anthropic 的系統進行目標決策,而國防承包商卻快速放棄該平台。這種矛盾局面源於重疊的政府限制和不斷演變的國防政策。Hegseth 部長潛在的供應鏈風險指定可能會引發法律挑戰,而軍事行動繼續依賴該技術。最終,這一爭議突顯了在軍事人工智慧應用中平衡技術能力、倫理考量和政策合規性的更廣泛挑戰。隨著這些複雜問題的演變,國防技術領域可能會面臨持續動盪。
Q1:為什麼美軍在有限制的情況下仍在使用 Claude AI?
軍方獲得了六個月的逐步停止期,而民間機構面臨立即限制。與伊朗的持續衝突在這一過渡期間造成了繼續使用的運營必要性。
Q2:哪些國防承包商正在替換 Claude AI?
洛克希德·馬丁領導遠離 Anthropic 平台的轉型,還有眾多其他承包商和至少十家 J2 Ventures 投資組合公司採取類似路徑。
Q3:「供應鏈風險指定」對 Anthropic 意味著什麼?
這一指定將正式將 Anthropic 識別為國防供應鏈中的潛在安全風險,可能禁止未來的國防部合約,並為現有協議造成法律挑戰。
Q4:Claude AI 實際上如何協助軍事目標定位?
該系統處理情報數據以建議目標、提供精確座標,並根據戰略重要性排定目標優先順序,與 Palantir 的 Maven 系統一起工作以提供即時目標定位支援。
Q5:使用 AI 進行軍事目標定位有哪些倫理問題?
問題包括在生死決策中減少人類監督、目標選擇中的演算法偏見、錯誤的問責制,以及更廣泛地開發可以在沒有有意義的人類控制下運作的自主武器系統。
本文 Claude AI 悖論:美軍在伊朗衝突中部署 Anthropic 系統,國防承包商卻紛紛撤離 首次出現在 BitcoinWorld。


