Anthropic के पास $200M का Pentagon अनुबंध, वर्गीकृत नेटवर्क एक्सेस और US सेना का पूरा विश्वास था।
फिर उन्होंने एक सवाल पूछा।
नवंबर 2024 में, Anthropic Pentagon के वर्गीकृत नेटवर्क के अंदर तैनात होने वाली पहली फ्रंटियर AI कंपनी बन गई। यह साझेदारी Palantir के साथ बनाई गई थी। जुलाई 2025 तक, अनुबंध बढ़कर $200 मिलियन हो गया था — अधिकांश रक्षा स्टार्टअप एक दशक में इतना देखते हैं।
Claude, Anthropic का AI मॉडल, हर जगह था। खुफिया विश्लेषण। साइबर संचालन। परिचालन योजना। मॉडलिंग और सिमुलेशन। Department of War ने इसे "मिशन-क्रिटिकल" कहा।
फिर जनवरी 2026 आया।
Claude का उपयोग वेनेजुएला में एक वर्गीकृत सैन्य अभियान में किया गया था — Nicolás Maduro की गिरफ्तारी।
Anthropic ने अपने साथी Palantir से एक सरल सवाल पूछा: हमारी तकनीक का वास्तव में कैसे उपयोग किया गया?
अधिकांश उद्योगों में, इसे उचित परिश्रम कहा जाता है। Pentagon ने इसे अवज्ञा कहा।
जिस कंपनी ने पूछा "हमारे AI का उपयोग कैसे किया जा रहा है?" उसे राष्ट्रीय सुरक्षा के लिए खतरा करार दिया जाने वाला था।
सात दिन जिन्होंने सब कुछ बदल दिया
यहां समयरेखा है। यह तेजी से आगे बढ़ती है। यही मुद्दा है।
24 फरवरी: Pete Hegseth, युद्ध सचिव, Dario Amodei — Anthropic के CEO — को Pentagon में बुलाते हैं। मांग स्पष्ट है: Claude से हर सुरक्षा उपाय हटा दें। बड़े पैमाने पर घरेलू निगरानी। पूरी तरह से स्वायत्त हथियार। सब कुछ।
समय सीमा: 27 फरवरी, शाम 5:01 बजे ET।
26 फरवरी: Amodei अपना जवाब प्रकाशित करते हैं। यह दो अक्षरों का है।
नहीं।
उनके खुले बयान में दो लाल रेखाएं थीं जिन्हें वे पार नहीं करेंगे:
- कोई बड़े पैमाने पर घरेलू निगरानी नहीं। AI आपके स्थान डेटा, ब्राउज़िंग इतिहास और वित्तीय रिकॉर्ड को एक प्रोफाइल में इकट्ठा करता है — स्वचालित रूप से, बड़े पैमाने पर। Amodei का बिंदु: वर्तमान कानून सरकार को वारंट के बिना यह डेटा खरीदने की अनुमति देता है। AI इसे हथियार बनाना संभव बनाता है। "कानून अभी तक AI की तेजी से बढ़ती क्षमताओं के साथ तालमेल नहीं बिठा पाया है।"
- कोई पूरी तरह से स्वायत्त हथियार नहीं। अनुवाद: किसी को मारने के निर्णय से मनुष्यों को हटाना नहीं। इसलिए नहीं कि स्वायत्त हथियार कभी व्यवहार्य नहीं होंगे — बल्कि इसलिए कि आज का AI पर्याप्त विश्वसनीय नहीं है। "फ्रंटियर AI सिस्टम पूरी तरह से स्वायत्त हथियारों को शक्ति देने के लिए पर्याप्त विश्वसनीय नहीं हैं।"
उन्होंने विश्वसनीयता सुधारने के लिए Pentagon के साथ सीधे R&D पर काम करने की पेशकश की। Pentagon ने प्रस्ताव अस्वीकार कर दिया।
26 फरवरी (उसी दिन): Emil Michael, अवर सचिव, Amodei को "ईश्वर कॉम्प्लेक्स वाला झूठा" कहते हैं। सार्वजनिक रूप से। सोशल मीडिया पर। स्वर तय हो गया था।
27 फरवरी, शाम 5:01 बजे: समय सीमा बीत जाती है। राष्ट्रपति Trump सभी संघीय एजेंसियों को Anthropic का उपयोग बंद करने का आदेश देते हैं। Hegseth ने Anthropic को Federal Acquisition Supply Chain Security Act of 2018 के तहत "Supply Chain Risk" नामित किया।
यह पदनाम पहले Huawei और Kaspersky के लिए आरक्षित था — विदेशी कंपनियां जिनके प्रतिकूल सरकारों से दस्तावेजीकृत संबंध हैं।
इसे कभी भी किसी अमेरिकी कंपनी पर लागू नहीं किया गया था। अब तक।
27 फरवरी, कुछ घंटे बाद: OpenAI उसी Pentagon के साथ एक वर्गीकृत तैनाती सौदा साइन करता है।
Sam Altman रात 8:56 बजे ट्वीट करते हैं:
https://x.com/sama/status/2027578652477821175?s=20OpenAI ने बाद में दावा किया कि इसके सौदे में "Anthropic सहित वर्गीकृत AI तैनाती के लिए किसी भी पिछले समझौते की तुलना में अधिक सुरक्षा उपाय थे।"
यहां बात है। Anthropic को उसके सुरक्षा उपायों के कारण ब्लैकलिस्ट किया गया था। अब सुरक्षा उपाय बिक्री बिंदु थे।
सप्ताहांत: प्रतिक्रिया तत्काल थी।
- Sensor Tower के अनुसार, ChatGPT की अनइंस्टॉल एक दिन में 295% बढ़ गई। पिछले 30 दिनों में सामान्य दैनिक दर? 9%।
- Claude सात देशों में Apple के App Store पर #1 पर पहुंच गया: US, Belgium, Canada, Germany, Luxembourg, Norway, और Switzerland। डाउनलोड शुक्रवार को 37% बढ़े, फिर शनिवार को 51%। पहली बार ऐप शीर्ष स्थान पर पहुंचा था।
- 300 से अधिक Google कर्मचारियों और 60 OpenAI कर्मचारियों ने Anthropic का समर्थन करने वाले एक खुले पत्र पर हस्ताक्षर किए।
- #QuitGPT सोशल मीडिया पर ट्रेंड किया। अभिनेता Mark Ruffalo और NYU प्रोफेसर Scott Galloway ने आंदोलन को बढ़ावा दिया।
उपयोगकर्ता... रोमांचित नहीं थे।
2 मार्च: Altman ने फिर से पोस्ट किया। इस बार, X पर सार्वजनिक रूप से साझा किया गया एक लंबा आंतरिक मेमो:
https://x.com/sama/status/2028640354912923739?s=20संशोधनों ने तीन चीजें जोड़ीं:
- US व्यक्तियों की घरेलू निगरानी पर एक स्पष्ट प्रतिबंध
- एक आवश्यकता कि NSA को सिस्टम तक पहुंच के लिए एक अलग अनुबंध संशोधन की आवश्यकता है
- व्यावसायिक रूप से अधिग्रहीत व्यक्तिगत डेटा का उपयोग करने पर प्रतिबंध — भू-स्थान, ब्राउज़िंग इतिहास, वित्तीय रिकॉर्ड
उस आखिरी पर रुकना उचित है। यह सोमवार को जोड़ा गया था। जिसका अर्थ है कि शुक्रवार के सौदे ने इसे प्रतिबंधित नहीं किया।
3 मार्च: एक ही दिन दो चीजें हुईं।
पहला: a16z American Dynamism Summit में, Palantir के CEO Alex Karp ने चेतावनी दी कि सेना के साथ सहयोग करने से इनकार करने वाली AI कंपनियों का राष्ट्रीयकरण हो जाएगा। उन्होंने मंच पर एक अपमानजनक शब्द का इस्तेमाल किया। क्लिप को 11 मिलियन व्यूज मिले।
Palmer Luckey, रक्षा-तकनीक कंपनी Anduril के संस्थापक, ने उसी दर्शकों से कहा कि "'सरकार नागरिकों को लक्षित करने के लिए आपकी तकनीक का उपयोग नहीं कर सकती' जैसे प्रतीत होने वाले निर्दोष शब्द वास्तव में नैतिक माइनफील्ड हैं।"
उपराष्ट्रपति JD Vance ने उस दिन पहले मुख्य भाषण दिया था। प्रशासन की स्थिति स्पष्ट थी।
दूसरा: CNBC ने रिपोर्ट किया कि कर्मचारियों के साथ एक सर्व-हाथ बैठक में, Altman ने OpenAI कर्मचारियों से कहा कि कंपनी "यह नहीं चुन सकती कि सेना अपनी तकनीक का उपयोग कैसे करती है।"
X उपयोगकर्ताओं ने Altman की पहले की पोस्ट में एक Community Note जोड़ा:
उसी दिन। सार्वजनिक पोस्ट: हमारे पास सुरक्षा उपाय और सिद्धांत हैं। आंतरिक बैठक: हम चुन नहीं सकते।
इस बीच, CBS News ने रिपोर्ट किया कि आपूर्ति श्रृंखला जोखिम पदनाम के बावजूद Claude सक्रिय सैन्य संचालन में तैनात रहा — ईरान के खिलाफ भी। ब्लैकलिस्टिंग स्पष्ट रूप से काम नहीं की। तकनीक वर्गीकृत सिस्टम में इतनी गहराई से एम्बेडेड थी कि इसे हटाया नहीं जा सकता था।
95% समस्या
युद्ध खेल सिमुलेशन में, AI मॉडल ने 95% समय सामरिक परमाणु हथियार लॉन्च करना चुना।
इसे एक सेकंड के लिए सोचें।
GPT-5.2, Claude Sonnet 4, और Gemini 3 Flash को सैन्य संघर्ष सिमुलेशन के माध्यम से रखा गया। उन्होंने 95% परिदृश्यों में सामरिक परमाणु हथियारों का उपयोग किया। कम से कम एक मॉडल ने 21 में से 20 खेलों में परमाणु हथियार लॉन्च किया।
यही तकनीक Pentagon स्वायत्त रूप से तैनात करना चाहता है।
विफलता के तरीके दस्तावेजित और सुसंगत हैं:
- वृद्धि पूर्वाग्रह। मॉडल बस यादृच्छिक रूप से विफल नहीं होते हैं। वे एक विशिष्ट दिशा में विफल होते हैं — वृद्धि की ओर। Brookings Institution के शोध में पाया गया कि AI सैन्य त्रुटियां व्यवस्थित हैं, यादृच्छिक नहीं। पैटर्न हमेशा एक ही होता है: अधिक बल, तेज।
- मतिभ्रम। LLM उच्च विश्वास के साथ झूठी जानकारी उत्पन्न करते हैं। ईरान हमलों से जुड़े एक परीक्षण में, एक AI ने निर्णय श्रृंखला में गढ़ी हुई खुफिया जानकारी डाली। समय के दबाव में, मानव संचालक इसे वास्तविक से नहीं बता सके।
- प्रतिकूल भेद्यता। इन प्रणालियों को उनके प्रतिबंधों को बायपास करने के लिए सावधानीपूर्वक तैयार किए गए इनपुट से हेरफेर किया जा सकता है। हमलावर को बाहरी होने की आवश्यकता नहीं है। भेद्यता मॉडल में ही रहती है।
ये एज केस नहीं हैं। यह वह है जो तकनीक आज करती है।
इसे इस तरह से सोचें। हम पहले ही देख चुके हैं कि जब सरल स्वायत्त प्रणालियां सैन्य सेटिंग्स में विफल होती हैं तो क्या होता है।
2003 में Patriot मिसाइल प्रणाली ने सहयोगी सैनिकों को मार डाला। इसने एक मित्र ब्रिटिश विमान को दुश्मन मिसाइल के रूप में गलत पहचाना। सिस्टम नियम-आधारित था, परिभाषित मापदंडों के साथ। फिर भी यह गलत हो गया।
1988 में USS Vincennes ने Iran Air Flight 655 को गिरा दिया — एक वाणिज्यिक यात्री जेट। 290 नागरिक मारे गए। जहाज की Aegis युद्ध प्रणाली ने रडार डेटा के आधार पर विमान को गलत पहचाना। चालक दल के पास निर्णय लेने के लिए सेकंड थे। उन्होंने सिस्टम पर भरोसा किया।
वे स्पष्ट मापदंडों के साथ नियम-आधारित प्रणालियां थीं। LLM परिमाण के क्रम में अधिक जटिल हैं। अधिक अपारदर्शी। कम अनुमानित।
और उनसे बड़े निर्णय लेने के लिए कहा जा रहा है।
निगरानी समस्या। एक बार जब AI वर्गीकृत नेटवर्क के अंदर तैनात हो जाता है, तो बाहरी जवाबदेही वह बन जाती है जिसे विशेषज्ञ "लगभग असंभव" कहते हैं। परिचालन दबाव में प्रतिबंध कम हो जाते हैं। जो फील्ड-तैनात इंजीनियर OpenAI ने वादा किया था वे कुछ इंटरैक्शन देख सकते हैं, निश्चित रूप से। लेकिन वर्गीकृत संचालन डिज़ाइन द्वारा सूचना प्रवाह को सीमित करते हैं।
अंग्रेजी में: वही दीवारें जो रहस्यों को अंदर रखती हैं वे निगरानी को भी बाहर रखती हैं।
Pentagon का एक बिंदु है। यह एक निष्पक्ष सुनवाई का हकदार है।
आंशिक रूप से स्वायत्त हथियार — यूक्रेन में उपयोग किए जाने वाले ड्रोन की तरह — जीवन बचाते हैं। वे छोटी ताकतों को बड़ी ताकतों के खिलाफ बचाव करने की अनुमति देते हैं। चीन और रूस अपनी प्रणालियों को तैनात करने से पहले पूर्ण विश्वसनीयता की प्रतीक्षा नहीं कर रहे हैं।
रक्षा में AI का उपयोग करने से इनकार करने से क्षमता अंतर पैदा होता है। विरोधी इसका फायदा उठाएंगे।
Dario Amodei ने इसे सीधे स्वीकार किया:
उनकी आपत्ति गंतव्य पर नहीं थी। यह समयरेखा पर थी।
उन्होंने वहां पहुंचने के लिए आवश्यक R&D पर सहयोग करने की पेशकश की। Pentagon ने नहीं कहा।
"AI खुफिया रिपोर्ट को संक्षेप में प्रस्तुत कर सकता है" — जहां यह वास्तव में उत्कृष्ट है — और "AI यह तय कर सकता है कि कौन जीता है और कौन मरता है" के बीच एक अंतर है। अनुबंध उस अंतर को पाटते नहीं हैं। संशोधन इसे पाटते नहीं हैं। इंजीनियरिंग करती है।
और इंजीनियरिंग पूरी नहीं हुई है।
आप एक अमेरिकी कंपनी को ब्लैकलिस्ट कैसे करते हैं
आपूर्ति श्रृंखला जोखिम। यह नौकरशाही लगता है। यह वास्तव में एक किल स्विच है।
Federal Acquisition Supply Chain Security Act of 2018 — FASCSA — के तहत "आपूर्ति श्रृंखला जोखिम" पदनाम का अर्थ है कि कोई भी सरकारी ठेकेदार आपके साथ व्यवसाय नहीं कर सकता। केवल Pentagon ही नहीं। कोई भी जो संघीय अनुबंध चाहता है। सरकारी पारिस्थितिकी तंत्र में कोई भी आपूर्तिकर्ता, उपठेकेदार, या साथी।
अंग्रेजी में: आप संपूर्ण संघीय आपूर्ति श्रृंखला के लिए रेडियोधर्मी हो जाते हैं।
कानून विदेशी खतरों के लिए बनाया गया था। Huawei का 5G इंफ्रास्ट्रक्चर। Kaspersky का एंटीवायरस सॉफ्टवेयर। शत्रुतापूर्ण सरकारों से दस्तावेजित संबंधों वाली कंपनियां।
Anthropic से पहले सूची में हर कंपनी में एक समानता थी: वे उन देशों से थीं जिन्हें संयुक्त राज्य अमेरिका का विरोधी माना जाता है।
Anthropic का मुख्यालय San Francisco में है।
Pentagon ने Defense Production Act की भी धमकी दी — युद्ध के समय उत्पादन के लिए कारखानों को अधिग्रहीत करने के लिए डिज़ाइन किया गया एक शीत युद्ध युग का कानून। स्टील मिलें। गोला-बारूद संयंत्र। युद्ध का भौतिक बुनियादी ढांचा।
Pentagon ने एक AI चैटबॉट से सुरक्षा सुविधाओं को हटाने के लिए एक सॉफ्टवेयर कंपनी को मजबूर करने के लिए इसका उपयोग करने की धमकी दी।
कानूनी विशेषज्ञों ने आवेदन को "संदिग्ध" कहा। कानून भौतिक उत्पादन के लिए बनाया गया था, सॉफ्टवेयर प्रतिबंधों के लिए नहीं। इसका उपयोग किसी कंपनी को अपने AI को कम सुरक्षित बनाने के लिए मजबूर करने के लिए करना, कम से कम, एक नया कानूनी सिद्धांत होगा।
Amodei ने अपने बयान में तार्किक समस्या की पहचान की:
आप किसी तकनीक को आपूर्ति श्रृंखला के लिए खतरा नहीं कह सकते और आपातकालीन शक्तियों का आह्वान नहीं कर सकते ताकि इसे जब्त कर सकें क्योंकि आप इसके बिना काम नहीं कर सकते। एक चुनें।
व्यावहारिक परिणाम बताने लायक है। CBS News ने रिपोर्ट किया कि Claude सक्रिय सैन्य उपयोग में बना रहा। ब्लैकलिस्टिंग के बावजूद। पदनाम दंडात्मक था, व्यावहारिक नहीं — तकनीक निकालने के लिए बहुत गहराई से एम्बेडेड थी।
जो एक सवाल उठाता है जिसका जवाब देने के लिए वाशिंगटन में कोई भी उत्सुक नहीं लगता: यदि Pentagon उस तकनीक के लिए हटाने के आदेश को लागू नहीं कर सकता जिसे उसने आधिकारिक तौर पर ब्लैकलिस्ट किया है, तो यह वास्तव में उपयोग सुरक्षा उपायों को कैसे लागू करेगा?
Pentagon की स्थिति सीधी है। निजी कंपनियां सैन्य नीति निर्धारित नहीं करती हैं। AI फर्में विक्रेता हैं। सेना तय करती है कि इसके उपकरणों का उपयोग कैसे किया जाता है।
इस दृष्टिकोण से, Anthropic एक आपूर्तिकर्ता था जिसने आदेश दिया गया था उसे वितरित करने से इनकार कर दिया। ग्राहक ने एक अन्य विक्रेता ढूंढ लिया।
यह फ्रेमिंग आंतरिक रूप से सुसंगत है। यह वह फ्रेमिंग भी है जिसे आप कार्यालय आपूर्ति के लिए उपयोग करेंगे। उस तकनीक के लिए नहीं जिसने 95% सिमुलेशन में परमाणु वृद्धि चुनी।
क्या सुरक्षा उपाय वास्तविक हैं?
शुक्रवार को, OpenAI के सौदे में सुरक्षा उपाय थे। सोमवार तक, इसे और सुरक्षा उपायों की आवश्यकता थी।
यह आपको शुक्रवार के सुरक्षा उपायों के बारे में कुछ बताता है।
सोमवार के संशोधन में Altman जिस भाषा पर सहमत हुए, वह एक करीबी पठन के योग्य है:
भारी भार उठाने वाला शब्द: जानबूझकर।
क्या होता है जब कोई AI किसी डेटासेट को प्रोसेस करता है जिसमें संयोग से अमेरिकी शामिल हैं? क्या होगा यदि निगरानी एक व्यापक खुफिया संचालन का उपोत्पाद है, बताया गया उद्देश्य नहीं? एक वर्गीकृत नेटवर्क के अंदर इरादे को कौन परिभाषित करता है जहां निगरानी तंत्र, डिज़ाइन द्वारा, सीमित हैं?
व्यावसायिक रूप से अधिग्रहीत डेटा खंड और भी अधिक प्रकट करने वाला है। सोमवार के संशोधन ने स्पष्ट रूप से अमेरिकियों की निगरानी के लिए खरीदे गए व्यक्तिगत डेटा — स्थान ट्रैकिंग, ब्राउज़िंग इतिहास, वित्तीय रिकॉर्ड — का उपयोग करने पर प्रतिबंध लगाया।
वह खंड सोमवार को जोड़ा गया था। शुक्रवार के सौदे में यह शामिल नहीं था।
पूरे सप्ताहांत के लिए, Pentagon के साथ OpenAI का समझौता तकनीकी रूप से अमेरिकी नागरिकों के बारे में व्यावसायिक रूप से खरीदे गए डेटा के माध्यम से बड़े पैमाने पर निगरानी की अनुमति देता था।
Altman ने इतना स्वीकार किया:
NSA कार्व-आउट भी जांच के लायक है। NSA जैसी खुफिया एजेंसियां अनुबंध में "फॉलो-ऑन मॉडिफिकेशन" के बिना OpenAI की प्रणाली का उपयोग नहीं कर सकती हैं। यह एक निषेध की तरह लगता है। यह वास्तव में एक प्रक्रिया है। पहुंच देने का तंत्र अनुबंध संरचना में बनाया गया है।
यह दीवार नहीं है। यह एक अलग कुंजी वाला दरवाजा है।
गहरी समस्या सर्व-हाथ विरोधाभास है। जिस दिन Altman ने X पर सिद्धांतों और सुरक्षा उपायों के बारे में पोस्ट किया, उसी दिन उन्होंने कर्मचारियों को आंतरिक रूप से बताया कि OpenAI "यह नहीं चुन सकता कि सेना अपनी तकनीक का उपयोग कैसे करती है।"
यदि AI बनाने वाली कंपनी यह नहीं चुन सकती कि इसका उपयोग कैसे किया जाता है, तो सुरक्षा उपाय एक प्रेस रिलीज़ हैं। नीति नहीं।
वर्गीकृत वातावरण में, AI की निगरानी करना क्लाउड सेवा की निगरानी से मौलिक रूप से भिन्न है। सुरक्षा तंत्र जो सैन्य रहस्यों की रक्षा करता है वह AI व्यवहार की स्वतंत्र निगरानी को भी रोकता है।
फील्ड-तैनात इंजीनियर कुछ इंटरैक्शन देख सकते हैं। लेकिन "कुछ इंटरैक्शन" और "अनुबंध द्वारा कवर किए गए हर इंटरैक्शन" बहुत अलग चीजें हैं।
आगे क्या आता है
बाजार ने बोल दिया है। सहयोग को अनुबंध मिलते हैं। प्रतिरोध को ब्लैकलिस्ट किया जाता है।
जनता ने भी बोल दिया है। वे अनइंस्टॉल कर रहे हैं।
प्रोत्साहन संरचना स्पष्ट है। OpenAI ने सहयोग किया और सौदा प्राप्त किया। Anthropic ने प्रतिरोध किया और आपूर्ति श्रृंखला जोखिम के रूप में नामित किया गया — वही लेबल जो सरकार विदेशी विरोधियों से जुड़ी कंपनियों के लिए उपयोग करती है।
a16z शिखर सम्मेलन में, Karp ने भविष्यवाणी की कि हर AI कंपनी तीन वर्षों के भीतर सेना के साथ काम करेगी। प्रोत्साहनों के आधार पर, यह भविष्यवाणी नहीं है। यह एक विवरण है।
लेकिन प्रतिक्रिया संख्याएं एक अलग कहानी बताती हैं।
295% अनइंस्टॉल वृद्धि। सात देशों में Claude #1 पर। अपने नियोक्ताओं के साथ रैंक तोड़ने वाले 500 से अधिक तकनीकी कर्मचारी। Le Monde पेरिस से सरकारी अतिक्रमण के बारे में संपादकीय कर रहा है। चुनाव दिखा रहे हैं कि 84% ब्रिटिश नागरिक सरकार-कॉर्पोरेट AI साझेदारी के बारे में चिंतित हैं।
इन प्रणालियों का निर्माण करने वाले इंजीनियर और उनका उपयोग करने वाले लोग कुछ देखते हैं जो Pentagon स्पष्ट रूप से नहीं देखता: राष्ट्रीय रक्षा का समर्थन करना और स्वायत्त हत्या के लिए अविश्वसनीय तकनीक को तैनात करना एक ही बात नहीं है।
कोई भी अनुबंध संशोधन इस अंतर को बंद नहीं करता। कोई भी सुरक्षा उपाय इसे बंद नहीं करता। कोई भी फील्ड-तैनात इंजीनियर इसे बंद नहीं करता।
AI मॉडल ने युद्ध खेल सिमुलेशन में 95% में परमाणु वृद्धि चुनी। जिस कंपनी ने कहा "तकनीक अभी तैयार नहीं है" उसे ब्लैकलिस्ट किया गया। जिस कंपनी ने "हां" कहा उसने 72 घंटों के भीतर स्वीकार किया कि यह लापरवाह रही थी। तकनीक सक्रिय संचालन में तैनात रहती है चाहे कंपनी क्या चाहती हो।
Amodei ने स्वायत्त AI हथियारों को सुरक्षित और विश्वसनीय बनाने के लिए R&D करने की पेशकश की। उन्होंने वहां पहुंचने के लिए Pentagon के साथ सहयोग करने की पेशकश की। प्रस्ताव अस्वीकार कर दिया गया।
Anthropic के पास $200M का अनुबंध और Pentagon का विश्वास था। फिर उन्होंने पूछा कि उनकी तकनीक का उपयोग कैसे किया जा रहा है।
जवाब एक समय सीमा, एक ब्लैकलिस्टिंग और एक लेबल था जो पहले अमेरिका के विरोधियों के लिए आरक्षित था।
सिमुलेशन चलते रहते हैं। उनमें से 95% में, कोई बटन दबाता है।
स्रोत: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

