संक्षेप में
- एक संघीय न्यायाधीश ने पेंटागन को Anthropic को आपूर्ति श्रृंखला जोखिम के रूप में चिह्नित करने से रोक दिया है, यह पाते हुए कि इस कदम ने संभवतः कंपनी के प्रथम संशोधन और उचित प्रक्रिया अधिकारों का उल्लंघन किया।
- यह विवाद $200 मिलियन के रक्षा विभाग AI अनुबंध से उत्पन्न हुआ जो तब ध्वस्त हो गया जब Anthropic ने अपने मॉडल को बड़े पैमाने पर निगरानी या घातक स्वायत्त युद्ध के लिए उपयोग करने की अनुमति देने से इनकार कर दिया।
- यह फैसला अस्थायी रूप से संघीय ठेकेदारों के साथ Anthropic की स्थिति को बहाल करता है और यह आकार दे सकता है कि AI फर्म सरकारी सौदों में उपयोग सीमाएं कैसे निर्धारित करती हैं।
एक संघीय न्यायाधीश ने पेंटागन को Anthropic को आपूर्ति श्रृंखला जोखिम के रूप में चिह्नित करने से रोक दिया है, गुरुवार को यह फैसला सुनाते हुए कि AI कंपनी के खिलाफ सरकार के अभियान ने इसके प्रथम संशोधन और उचित प्रक्रिया अधिकारों का उल्लंघन किया।
अमेरिकी जिला न्यायाधीश रीटा लिन ने कैलिफोर्निया के उत्तरी जिले से दोनों पक्षों से मौखिक तर्क सुनने के दो दिन बाद एक प्रारंभिक निषेधाज्ञा जारी की, एक ऐसे मामले में जिसे पर्यवेक्षकों का कहना है कि सरकार के अपने कागजी कार्रवाई द्वारा अपरिहार्य बना दिया गया था।
"शासी क़ानून में कुछ भी ऑरवेलियन धारणा का समर्थन नहीं करता है कि एक अमेरिकी कंपनी को सरकार के साथ असहमति व्यक्त करने के लिए अमेरिका का एक संभावित विरोधी और तोड़फोड़ करने वाला ब्रांडेड किया जा सकता है," न्यायाधीश लिन ने लिखा।
आंतरिक रिकॉर्ड सरकार के मामले के लिए घातक था, एंड्रयू रोसो, सार्वजनिक मामलों के वकील और AR Media Consulting के CEO के अनुसार, जिन्होंने Decrypt को बताया कि पदनाम "प्रेस आचरण द्वारा ट्रिगर किया गया था, सुरक्षा विश्लेषण द्वारा नहीं।"
"सरकार ने अनिवार्य रूप से अपना स्वयं का उद्देश्य लिख दिया, और यह प्रतिशोध था," रोसो ने कहा।
विवाद जुलाई 2025 में युद्ध विभाग के मुख्य डिजिटल और कृत्रिम बुद्धिमत्ता कार्यालय द्वारा Anthropic को दिए गए दो साल के, $200 मिलियन के अनुबंध पर केंद्रित है।
विभाग के GenAI.Mil प्लेटफॉर्म पर Claude को तैनात करने के लिए वार्ता टूट गई जब दोनों पक्ष उपयोग प्रतिबंधों पर सहमत होने में विफल रहे।
Anthropic ने दो शर्तों पर जोर दिया: कि Claude का उपयोग अमेरिकियों की बड़े पैमाने पर निगरानी या स्वायत्त युद्ध में घातक उपयोग के लिए नहीं किया जाएगा, यह तर्क देते हुए कि मॉडल अभी तक किसी भी उद्देश्य के लिए सुरक्षित नहीं था।
24 फरवरी की एक बैठक में, युद्ध सचिव पीट हेगसेथ ने Anthropic के प्रतिनिधियों से कहा कि यदि कंपनी ने 27 फरवरी तक अपने प्रतिबंधों को नहीं हटाया, तो विभाग तुरंत इसे आपूर्ति श्रृंखला जोखिम के रूप में नामित करेगा।
Anthropic ने अनुपालन करने से इनकार कर दिया।
उसी दिन, राष्ट्रपति ट्रम्प ने Truth Social पर एक निर्देश पोस्ट किया जिसमें प्रत्येक संघीय एजेंसी को कंपनी की तकनीक का उपयोग "तुरंत बंद" करने का आदेश दिया, Anthropic को एक "कट्टरपंथी वामपंथी, जागृत कंपनी" बताया।
एक घंटे से थोड़ा अधिक समय बाद, हेगसेथ ने वर्णन किया कि Anthropic का रुख "अहंकार और विश्वासघात में एक मास्टर क्लास" है, यह आदेश देते हुए कि सेना के साथ व्यापार करने वाला कोई भी ठेकेदार फर्म के साथ वाणिज्यिक गतिविधि नहीं कर सकता। औपचारिक आपूर्ति श्रृंखला पदनाम के बाद 3 मार्च को एक पत्र आया।
Anthropic ने 9 मार्च को प्रथम संशोधन, उचित प्रक्रिया और प्रशासनिक प्रक्रिया अधिनियम के उल्लंघन का आरोप लगाते हुए सरकार पर मुकदमा दायर किया।
"सरकार की अनुबंध स्थिति पर सार्वजनिक जांच लाने के लिए Anthropic को दंडित करना क्लासिक अवैध प्रथम संशोधन प्रतिशोध है," न्यायाधीश लिन ने गुरुवार के आदेश में लिखा।
आदेश, जिसे सात दिनों के लिए स्थगित कर दिया गया था, सभी तीन सरकारी कार्रवाइयों को रोकता है, 6 अप्रैल तक एक अनुपालन रिपोर्ट की आवश्यकता है, और 27 फरवरी की घटनाओं से पहले की स्थिति को बहाल करता है।
कानून का हथियारीकरण
"आपूर्ति श्रृंखला जोखिम" होने का पदनाम ऐतिहासिक रूप से विदेशी खुफिया एजेंसियों, आतंकवादियों और अन्य शत्रुतापूर्ण अभिनेताओं के लिए आरक्षित रहा है।
Anthropic से पहले इसे कभी भी किसी घरेलू कंपनी पर लागू नहीं किया गया था। रक्षा ठेकेदारों ने आकलन करना शुरू कर दिया और कई मामलों में Anthropic पर अपनी निर्भरता को समाप्त कर दिया, न्यायाधीश लिन के आदेश ने नोट किया।
और सरकार की मुद्रा के अप्रत्याशित परिणाम हो सकते हैं, विशेषज्ञों का तर्क है।
वास्तव में, गुरुवार का फैसला AI कंपनियों को "सरकारों के साथ काम करते समय नैतिक सुरक्षा उपायों को औपचारिक बनाने" के लिए प्रेरित कर सकता है, पिचापेन प्रतीपवानिच, नीति रणनीतिकार और बुनियादी ढांचा फर्म Gather Beyond के संस्थापक ने Decrypt को बताया।
कुछ हद तक, फैसला यह भी सुझाव देता है कि कंपनियां "स्वचालित रूप से दंडात्मक नियामक कार्रवाई को ट्रिगर किए बिना स्पष्ट उपयोग सीमाएं निर्धारित कर सकती हैं," उसने कहा।
लेकिन यह "तनाव को दूर नहीं करता," उसने जोड़ा। फैसला जो सीमित करता है वह है "उस असहमति को व्यापक बहिष्करण या लेबलिंग में बढ़ाने की क्षमता जो प्रतिशोधात्मक दिखती है।"
फिर भी, एक कंपनी को आपूर्ति श्रृंखला जोखिम के रूप में नामित करने के लिए वर्तमान वैधानिक प्राधिकरण का अनुप्रयोग "क्योंकि इसने सुरक्षा उपायों को हटाने से इनकार कर दिया" आपूर्ति श्रृंखला जोखिम क़ानून का विस्तार नहीं है, रोसो ने समझाया। इसके बजाय, यह कानून के "हथियारीकरण" के रूप में काम करता है।
"यह व्हाइट हाउस द्वारा जब भी उन्हें चुनौती दी जाती है तो व्यवहार के एक चल रहे पैटर्न का हिस्सा है, जिसके परिणामस्वरूप असंगत, भावनात्मक रूप से संचालित और पक्षपाती धमकियां और सरकारी जबरन वसूली होती है," उन्होंने जोड़ा।
यदि सरकार के "सिद्धांत" को स्वीकार किया जाता है, तो यह एक "खतरनाक" मिसाल बनाएगा जिसमें AI फर्मों को सुरक्षा नीतियों के लिए काली सूची में डाला जा सकता है जो सरकार को पसंद नहीं है, "किसी भी नुकसान से पहले," उचित प्रक्रिया के बिना, राष्ट्रीय सुरक्षा के बैनर तले, रोसो ने कहा।
Daily Debrief Newsletter
हर दिन की शुरुआत अभी शीर्ष समाचारों के साथ करें, साथ ही मूल सुविधाएं, एक पॉडकास्ट, वीडियो और बहुत कुछ।
Source: https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat



