शुक्रवार देर रात, जैसे ही मध्य पूर्व में भू-राजनीतिक तनाव खुले संघर्ष में बदल गया, सैम ऑल्टमैन ने X पर एक ऐसे सौदे की घोषणा की जिससे टेक समुदाय में कई लोग लंबे समय से डरते थे, फिर भी कुछ ही लोगों को उम्मीद थी कि यह इतनी अचानक साकार होगा।
OpenAI ने आधिकारिक तौर पर अमेरिकी युद्ध विभाग (DoW) के साथ एक समझौते पर हस्ताक्षर किए थे ताकि अपने फ्रंटियर मॉडल को सेना के सबसे संवेदनशील, गोपनीय नेटवर्क में तैनात किया जा सके।
इस घोषणा ने तुरंत एक अराजक तूफान खड़ा कर दिया। कुछ ही मिनटों में, थ्रेड "Cancel ChatGPT" हैशटैग, राष्ट्रीय सुरक्षा विशेषज्ञों की तीखी पूछताछ, और मानवता के भविष्य को बेचने के भड़काऊ आरोपों का युद्धक्षेत्र बन गया।
एक ऐसी कंपनी के लिए जो यह सुनिश्चित करने के सिद्धांत पर स्थापित की गई थी कि AGI पूरी मानवता को लाभान्वित करे, एक प्राथमिक रक्षा ठेकेदार की ओर यह बदलाव उद्योग के नैतिक परिदृश्य में एक विवर्तनिक बदलाव जैसा लगा।
इस अचानक बदलाव का संदर्भ उतना ही नाटकीय है जितना कि सौदा खुद। ऑल्टमैन की घोषणा से कुछ घंटे पहले, राष्ट्रपति डोनाल्ड ट्रंप ने एक व्यापक कार्यकारी आदेश जारी किया था जिसमें सभी संघीय एजेंसियों को Anthropic, OpenAI की मुख्य प्रतिद्वंद्वी, की तकनीक के उपयोग को तुरंत बंद करने का निर्देश दिया गया था।
युद्ध सचिव पीट हेगसेथ ने Anthropic को "राष्ट्रीय सुरक्षा के लिए आपूर्ति-श्रृंखला जोखिम" करार दिया, एक पदनाम जो आमतौर पर Huawei जैसे विदेशी विरोधियों के लिए आरक्षित है।
कथित तौर पर Anthropic ने पेंटागन को अपने Claude मॉडल तक बिना शर्त पहुंच देने से इनकार कर दिया था, संविदात्मक "रेड लाइन" पर जोर देते हुए जो घरेलू सामूहिक निगरानी या पूरी तरह से स्वायत्त घातक हथियारों के लिए प्रौद्योगिकी के उपयोग को प्रतिबंधित करेगा।
सैम ऑल्टमैन, OpenAI के CEO
OpenAI ने अपने प्रतिद्वंद्वी के जाने से बने शून्य में कदम रखा। जबकि प्रशासन ने मांग की कि AI मॉडल "सभी वैध उद्देश्यों" के लिए उपलब्ध हों, OpenAI ने अपने प्रवेश को समर्पण के रूप में नहीं बल्कि एक परिष्कृत समझौते के रूप में प्रस्तुत किया।
अपने Ask Me Anything (AMA) में, ऑल्टमैन ने तर्क दिया कि OpenAI ने वही सुरक्षा गार्डरेल हासिल किए जो Anthropic चाहता था लेकिन उन्हें एक अल्टीमेटम के बजाय बहु-स्तरीय दृष्टिकोण के माध्यम से हासिल किया।
मौजूदा कानूनी ढांचे के भीतर काम करने के लिए सहमत होकर, चौथे संशोधन और Posse Comitatus Act का हवाला देते हुए, OpenAI ने प्रभावी रूप से एक गतिरोध को कम कर दिया जो एक सक्रिय युद्ध के दौरान अमेरिकी सेना को फ्रंटियर AI क्षमताओं के बिना छोड़ने की धमकी दे रहा था।
थ्रेड जल्दी ही कॉर्पोरेट PR से AI युद्ध की नैतिकता पर एक कच्ची बहस में बदल गया। सबसे अधिक पसंद किए गए प्रश्नों में से एक ने OpenAI के मिशन में मौलिक बदलाव को संबोधित किया: "मानव बेहतरी" से रक्षा सहयोग की ओर क्यों बढ़ना?
ऑल्टमैन की प्रतिक्रिया विशिष्ट रूप से व्यावहारिक थी: "दुनिया एक जटिल, गंदी और कभी-कभी खतरनाक जगह है। हम मानते हैं कि देश की रक्षा के लिए जिम्मेदार लोगों को उपलब्ध सर्वोत्तम उपकरणों तक पहुंच होनी चाहिए।"
ऑल्टमैन ने AI को एक स्वायत्त जल्लाद बनने से रोकने के लिए डिज़ाइन किए गए तकनीकी सुरक्षा उपायों का विवरण दिया।
इनमें एक "केवल क्लाउड" तैनाती रणनीति शामिल है, जो मॉडल को सीधे एज डिवाइस या हथियार हार्डवेयर में एम्बेड होने से रोकती है, और गोपनीय उपयोग की निगरानी के लिए "फील्ड डिप्लॉयमेंट इंजीनियर्स" (FDEs) की तैनाती।
हालांकि, थ्रेड संशय में बना रहा। आलोचकों ने एक कम्युनिटी नोट की ओर इशारा किया जिसमें यह उजागर किया गया कि USA PATRIOT Act के तहत, "वैध उपयोग" में अभी भी विशाल डेटा संग्रह शामिल हो सकता है।
जब AI द्वारा वैश्विक आपदा का कारण बनने की संभावना के बारे में पूछा गया, तो ऑल्टमैन असामान्य रूप से संक्षिप्त थे, यह सुझाव देते हुए कि राष्ट्रीय सुरक्षा सहयोग वास्तव में राज्य और डेवलपर्स को एक ही पृष्ठ पर रखकर जोखिम को कम कर सकता है।
सबसे खुलासा करने वाले आदान-प्रदानों में से एक में शासन शामिल था। जब पूछा गया कि क्या संघीय सरकार अंततः OpenAI का राष्ट्रीयकरण कर सकती है, ऑल्टमैन ने स्वीकार किया, "मैंने इसके बारे में सोचा है, निश्चित रूप से, लेकिन वर्तमान प्रक्षेपवक्र पर यह अत्यधिक संभावित नहीं लगता।"
इस स्वीकारोक्ति ने उन लोगों को शांत करने के लिए बहुत कम किया जो युद्ध विभाग की रीब्रांडिंग और Anthropic की ब्लैकलिस्टिंग को राज्य-संचालित AGI की ओर पहले कदम के रूप में देखते हैं।
इस सौदे के निहितार्थ एक एकल अनुबंध से कहीं अधिक विस्तृत हैं। अपने प्रतियोगी के आपूर्ति श्रृंखला जोखिम पदनाम को स्वीकार करके, OpenAI ने अप्रत्यक्ष रूप से एक ऐसी दुनिया को मान्य कर दिया है जहां सरकार सैन्य उपयोगिता के प्रति कंपनी की वैचारिक प्रतिबद्धता के आधार पर विजेताओं और हारने वालों को चुन सकती है।
यह एक डरावनी मिसाल स्थापित करता है, जैसा कि ऑल्टमैन ने भी स्वीकार किया, जहां निजी कंपनियां राष्ट्रीय सुरक्षा खतरे के रूप में लेबल किए जाने से बचने के लिए अपनी नैतिक गार्डरेल को कम करने के लिए दबाव महसूस कर सकती हैं।
नैतिक दृष्टिकोण से, मानव-इन-द-लूप आवश्यकता सबसे विवादास्पद बिंदु बनी हुई है।
जबकि OpenAI जोर देता है कि मनुष्य बल के उपयोग के लिए जिम्मेदारी बनाए रखेंगे, थ्रेड में रक्षा विशेषज्ञों ने नोट किया कि वर्तमान DoW नीति (निर्देश 3000.09) उच्च गति डिजिटल युद्ध में सार्थक मानव नियंत्रण का गठन करने वाली चीज़ों पर कुख्यात रूप से अस्पष्ट है।
सैम ऑल्टमैन
यदि कोई AI मानव के पलक झपकने से भी तेज़ी से लक्ष्य डेटा को संसाधित करता है, तो क्या मानव वास्तव में लूप में है या केवल मशीन के निर्णय पर एक रबर स्टैम्प?
AGI के नियंत्रण खोने का जोखिम अब दूर भविष्य के लिए एक सैद्धांतिक चिंता नहीं है; यह एक सवाल है कि ये मॉडल गोपनीय युद्ध के उच्च-दांव वाले वातावरण में कैसे व्यवहार करेंगे।
यह भी पढ़ें: OpenAI ने AI को बढ़ावा देने के लिए Amazon, NVIDIA और SoftBank से रिकॉर्ड $110 बिलियन जुटाए
जैसे ही AMA समाप्त हुआ, OpenAI उपयोगकर्ताओं की यादों में ऑल्टमैन की छवि एक तारों भरी आंखों वाले टेक दूरदर्शी की नहीं थी, बल्कि कठोर शक्ति की दुनिया में नेविगेट करने वाले एक डिजिटल राजनयिक की थी।
उन्होंने थ्रेड को एक गंभीर टेकअवे के साथ छोड़ा: तटस्थ AI विकास का युग खत्म हो गया है। OpenAI का युद्ध विभाग के साथ एकीकरण का निर्णय एक नए अध्याय की शुरुआत का प्रतीक है जहां AGI को वैश्विक सार्वजनिक भलाई के बजाय राज्य की एक रणनीतिक संपत्ति के रूप में माना जाता है।
पोस्ट युद्ध विभाग के साथ OpenAI की विवादास्पद संधि पर सैम ऑल्टमैन के AMA का सारांश पहली बार Technext पर प्रकाशित हुआ।

