據報導,美國軍方在伊朗進行重大空襲期間依賴了 Anthropic 的 Claude AI,這一發展在川普總統下令聯邦機構停止使用該模型僅數小時後浮出水面。據報導,該地區的指揮部(包括中央司令部)使用 Claude 來支援情報分析、目標審查和戰場模擬。這一事件凸顯了即使在政策制定者推動切斷與某些供應商的聯繫時,AI 工具已深深融入國防行動中。這一事件突顯了行政指令與實地自動化之間的緊張關係,這可能影響整個國防計畫的採購和風險管理。
<li Anthropic 先前獲得了價值高達 2 億美元的多年期五角大廈合約,與 Palantir 和 Amazon Web Services 合作,為 Claude 啟用機密工作流程。
<li 川普政府指示各機構停止與 Anthropic 合作,並指示國防部在關於無限制軍事使用的合約談判破裂後,將該公司視為潛在的安全風險。
<li 五角大廈開始尋找替代供應商,並著手在機密網路上部署其他 AI 模型,包括與 OpenAI 合作進行此類部署。
<li Anthropic 執行長 Dario Amodei 公開反對這項禁令,他認為某些軍事應用跨越了倫理界限,應該保持在人類監督之下,而不是自動化、大規模監控或自主武器化。
情緒: 中立
市場背景: 這一事件處於國防採購、AI 倫理和國家安全風險管理的交叉點,各機構正在重新評估供應商依賴性以及敏感作業的 AI 工具分類。
這一事件罕見地揭示了商業 AI 模型如何整合到高風險的軍事工作流程中。Claude 最初設計用於廣泛的認知任務,據報導支援了情報分析和戰場場景建模,這表明了一種超越實驗室環境、延伸到真實世界任務的作業信任程度。這提出了關於 AI 在戰鬥規劃中的可靠性、審計和可控性的重要問題,特別是當政府政策在供應商使用方面迅速發出轉變信號時。
在政策層面上,合約關係與總統指令之間的摩擦凸顯了關於如何在安全環境中對待 AI 供應商的更廣泛辯論。Anthropic 拒絕授予無限制軍事使用權與其聲明的倫理界限一致,這表明私營部門供應商可能越來越多地反對他們認為有倫理問題的配置。五角大廈的回應——轉向替代供應商處理機密工作負載——說明了國防部門如何分散 AI 生態系統以降低風險暴露,同時在敏感作業中維持能力。
這種緊張關係也涉及 AI 即服務市場的競爭動態。據報導,隨著 OpenAI 介入為機密網路提供模型,該行業可能會見證圍繞安全分類、資料治理和供應鏈風險的條款的持續實驗和重新談判。這種情況強調了需要嚴格的治理框架,能夠適應快速的技術變革,而不損害作業安全或倫理標準。
官員們描述 Claude 在伊朗重大空襲期間的情報分析和作業規劃中發揮了作用,這一說法說明了 AI 工具已經多麼接近戰場決策制定。儘管川普政府採取行動切斷與 Anthropic 的聯繫,但據報導 Claude 的作業使用在某些指揮部中持續存在,這突顯了政策聲明與日常國防工作流程之間的脫節。實際情況是,即使各機構重新評估跨部門的供應商風險和合規要求,AI 驅動的分析、模擬和風險評估仍可能滲入任務規劃中。
五角大廈先前與 Anthropic 的合作規模相當大:一份價值高達 2 億美元的多年期合約以及一個合作網路,包括 Palantir 和 Amazon Web Services,使 Claude 能夠用於機密資訊處理和情報處理。這一安排突顯了一個更廣泛的策略:在可信賴的生態系統中分散 AI 能力,以確保在敏感環境中的韌性。然而,當政策方向轉變時,政府採取行動重新定義供應商關係,這表明是基於風險的重新校準,而不是全面退出 AI 支援的國防作業。
在幕後,公共政策與私營部門倫理之間的緊張關係浮現出來。據報導,國防部長 Pete Hegseth 向 Anthropic 施壓,要求允許其模型的無限制軍事使用,這一請求被 Anthropic 領導層拒絕,認為這跨越了公司不會跨越的倫理界限。該公司的立場集中在這樣的信念上:某些用途——大規模國內監控和完全自主武器——引發了深刻的倫理和法律關切,有意義的人類監督應該在從概念到執行的過渡中存續。這一立場與正在進行的關於如何平衡快速 AI 採用與防止濫用和意外後果的保障措施的辯論一致。
就其本身而言,五角大廈並沒有袖手旁觀。面對潛在的供應商缺口,它開始排列替代方案,據報導與 OpenAI 達成協議,在機密網路上部署模型。這一轉變突顯了一個更廣泛的戰略舉措,以確保能力的連續性,即使供應商重新評估其敏感部署的條款。Anthropic 的倫理界限與該部門的作業需求之間的對比揭示了一個更廣泛的政策緊張:如何在保持國家安全要務的同時負責任地利用變革性技術。
行業觀察家也注意到此類轉變的生態系統效應。AI 市場正在朝著更模組化、經過安全審查的配置發展,這些配置可以隨著政策和風險評估的轉變而被交換或升級。特別是 OpenAI 的安排,表明了在嚴格治理和監督下將領先模型整合到國防網路中的持續興趣。儘管這一軌跡為軍事分析師和規劃者帶來了增強的能力,但它也提升了圍繞資料處理、模型可解釋性以及過度依賴自動化系統進行關鍵決策的風險的審查。
Anthropic 執行長 Dario Amodei 認為,儘管 AI 可以增強人類判斷,但它不能在核心國防決策中取代人類判斷。在公開評論中,他重申了公司對倫理界限的承諾以及在關鍵時刻維持人類控制的承諾。在維持獲取尖端工具與堅持倫理標準之間的緊張關係,可能會影響與聯邦機構的未來談判,特別是當立法者和監管機構審查 AI 在民用和國家安全背景下的角色時。
隨著形勢的發展,更廣泛的加密貨幣和科技社群將關注這些政策和採購動態如何影響高風險環境中先進 AI 系統的開發和部署。這一事件作為一個案例研究,說明了在快速技術進步與治理、監督之間取得平衡,以及人類責任結束和自動化決策開始的持久問題。
本文最初發表於 Crypto Breaking News 上,標題為「US military used Anthropic for Iran strike despite Trump's ban: WSJ」——您值得信賴的加密貨幣新聞、Bitcoin 新聞和區塊鏈更新來源。


