यह पोस्ट Will Artificial Intelligence Save Humanity—Or End It? BitcoinEthereumNews.com पर प्रकाशित हुई। संक्षेप में एक ऑनलाइन पैनल ने ट्रांसह्यूमनिस्टों के बीच गहरी खाई को प्रदर्शित कियायह पोस्ट Will Artificial Intelligence Save Humanity—Or End It? BitcoinEthereumNews.com पर प्रकाशित हुई। संक्षेप में एक ऑनलाइन पैनल ने ट्रांसह्यूमनिस्टों के बीच गहरी खाई को प्रदर्शित किया

क्या कृत्रिम बुद्धिमत्ता मानवता को बचाएगी—या इसे समाप्त कर देगी?

2026/02/02 04:40
6 मिनट पढ़ें
इस कॉन्टेंट के संबंध में प्रतिक्रिया या चिंताओं के लिए, कृपया crypto.news@mexc.com पर हमसे संपर्क करें

संक्षेप में

  • एक ऑनलाइन पैनल ने AGI को लेकर ट्रांसह्यूमनिस्ट और प्रौद्योगिकीविदों के बीच गहरे विभाजन को प्रदर्शित किया।
  • लेखक एलीज़र युडकोवस्की ने चेतावनी दी कि वर्तमान "ब्लैक बॉक्स" AI सिस्टम विलुप्ति को अपरिहार्य परिणाम बनाते हैं।
  • मैक्स मोर ने तर्क दिया कि AGI में देरी करने से मानवता को उम्र बढ़ने को हराने और दीर्घकालिक आपदा को रोकने का सबसे अच्छा मौका खोना पड़ सकता है।

कृत्रिम बुद्धिमत्ता के भविष्य को लेकर एक तीव्र विभाजन इस सप्ताह सामने आया जब चार प्रमुख प्रौद्योगिकीविदों और ट्रांसह्यूमनिस्ट ने बहस की कि क्या कृत्रिम सामान्य बुद्धिमत्ता, या AGI का निर्माण मानवता को बचाएगा या इसे नष्ट करेगा।

गैर-लाभकारी संगठन Humanity+ द्वारा आयोजित पैनल ने सबसे मुखर AI "डूमर्स" में से एक, एलीज़र युडकोवस्की को एक साथ लाया, जिन्होंने उन्नत AI विकास को बंद करने की मांग की है, साथ ही दार्शनिक और भविष्यवादी मैक्स मोर, कम्प्यूटेशनल न्यूरोसाइंटिस्ट एंडर्स सैंडबर्ग, और Humanity+ के अध्यक्ष एमेरिटस नताशा विटा-मोर।

उनकी चर्चा ने इस बात पर मौलिक असहमति प्रकट की कि क्या AGI को मानव अस्तित्व के साथ संरेखित किया जा सकता है या क्या इसका निर्माण विलुप्ति को अपरिहार्य बना देगा।

"ब्लैक बॉक्स" समस्या

युडकोवस्की ने चेतावनी दी कि आधुनिक AI सिस्टम मूल रूप से असुरक्षित हैं क्योंकि उनकी आंतरिक निर्णय लेने की प्रक्रियाओं को पूरी तरह से समझा या नियंत्रित नहीं किया जा सकता है।

"कोई भी ब्लैक बॉक्स संभवतः वर्तमान तकनीक के समान ही उल्लेखनीय रूप से समान समस्याओं के साथ समाप्त होने वाला है," युडकोवस्की ने चेतावनी दी। उन्होंने तर्क दिया कि उन्नत AI को सुरक्षित रूप से विकसित करने से पहले मानवता को "वर्तमान प्रतिमानों से बहुत, बहुत दूर" जाने की आवश्यकता होगी।

कृत्रिम सामान्य बुद्धिमत्ता AI के एक रूप को संदर्भित करती है जो कार्यों की एक विस्तृत श्रृंखला में तर्क और सीख सकती है, बजाय इसके कि टेक्स्ट, इमेज या वीडियो जनरेशन जैसे एकल कार्य के लिए बनाई गई हो। AGI को अक्सर तकनीकी सिंगुलैरिटी के विचार से जोड़ा जाता है, क्योंकि बुद्धिमत्ता के उस स्तर तक पहुंचने से मशीनें खुद को मनुष्यों की तुलना में तेजी से सुधार सकती हैं।

युडकोवस्की ने जोखिम को स्पष्ट करने के लिए दार्शनिक निक बोस्ट्रोम द्वारा लोकप्रिय "पेपरक्लिप मैक्सिमाइज़र" उपमा की ओर इशारा किया। यह विचार प्रयोग एक काल्पनिक AI को दर्शाता है जो सभी उपलब्ध पदार्थ को पेपरक्लिप में बदल देता है, मानवजाति की कीमत पर एक ही उद्देश्य पर अपने जुनून को आगे बढ़ाता है। युडकोवस्की ने कहा कि अधिक उद्देश्य जोड़ने से सुरक्षा में सार्थक रूप से सुधार नहीं होगा।

AI पर अपनी हाल की पुस्तक के शीर्षक "इफ एनीवन बिल्ड्स इट, एवरीवन डाइज़" का जिक्र करते हुए, उन्होंने कहा, "हमारा शीर्षक ऐसा नहीं है कि यह शायद आपको मार सकता है," युडकोवस्की ने कहा। "हमारा शीर्षक है, अगर कोई इसे बनाता है, तो सभी मर जाते हैं।"

लेकिन मोर ने इस आधार को चुनौती दी कि चरम सावधानी सबसे सुरक्षित परिणाम प्रदान करती है। उन्होंने तर्क दिया कि AGI मानवता को उम्र बढ़ने और बीमारी पर काबू पाने का सबसे अच्छा मौका प्रदान कर सकता है।

"मेरे लिए सबसे महत्वपूर्ण बात यह है कि AGI हमें उम्र बढ़ने के कारण जीवित प्रत्येक व्यक्ति के विलुप्त होने को रोकने में मदद कर सकता है," मोर ने कहा। "हम सभी मर रहे हैं। हम एक-एक करके आपदा की ओर बढ़ रहे हैं।" उन्होंने चेतावनी दी कि अत्यधिक संयम सरकारों को दुनिया भर में AI विकास को रोकने के एकमात्र तरीके के रूप में सत्तावादी नियंत्रण की ओर धकेल सकता है।

सैंडबर्ग ने खुद को दोनों शिविरों के बीच स्थित किया, खुद को "अधिक आशावादी" के रूप में वर्णित करते हुए जबकि ट्रांसह्यूमनिस्ट आशावादियों की तुलना में अधिक सतर्क रहे। उन्होंने एक व्यक्तिगत अनुभव सुनाया जिसमें उन्होंने लगभग एक जैव हथियार डिजाइन करने में सहायता के लिए एक बड़े भाषा मॉडल का उपयोग किया, एक प्रकरण जिसे उन्होंने "भयावह" बताया।

"हम एक ऐसे बिंदु पर पहुंच रहे हैं जहां दुर्भावनापूर्ण अभिनेताओं को बढ़ाना भी एक बड़ी गड़बड़ी का कारण बनने वाला है," सैंडबर्ग ने कहा। फिर भी, उन्होंने तर्क दिया कि आंशिक या "अनुमानित सुरक्षा" प्राप्त की जा सकती है। उन्होंने इस विचार को खारिज कर दिया कि सुरक्षा सार्थक होने के लिए पूर्ण होनी चाहिए, यह सुझाव देते हुए कि मनुष्य कम से कम अस्तित्व जैसे न्यूनतम साझा मूल्यों पर एकजुट हो सकते हैं।

"तो अगर आप पूर्ण सुरक्षा की मांग करते हैं, तो आपको यह नहीं मिलने वाली है। और यह उस दृष्टिकोण से बहुत बुरा लगता है," उन्होंने कहा। "दूसरी ओर, मुझे लगता है कि हम वास्तव में अनुमानित सुरक्षा प्राप्त कर सकते हैं। यह काफी अच्छा है।"

संरेखण पर संशयवाद

विटा-मोर ने व्यापक संरेखण बहस की आलोचना की, यह तर्क देते हुए कि यह अवधारणा सहमति के एक स्तर को मानती है जो लंबे समय तक सहयोगियों के बीच भी मौजूद नहीं है।

"संरेखण धारणा एक पोलीएना योजना है," उन्होंने कहा। "यह कभी संरेखित नहीं होगा। मेरा मतलब है, यहां तक कि यहां, हम सभी अच्छे लोग हैं। हम एक-दूसरे को दशकों से जानते हैं, और हम संरेखित नहीं हैं।"

उन्होंने युडकोवस्की के दावे का वर्णन किया कि AGI अनिवार्य रूप से सभी को मार देगा "निरपेक्षवादी सोच" के रूप में जो अन्य परिणामों के लिए कोई जगह नहीं छोड़ती है।

"मुझे इस व्यापक कथन से समस्या है कि सभी मर जाते हैं," उन्होंने कहा। "एक भविष्यवादी और व्यावहारिक विचारक के रूप में इसे देखते हुए, यह कोई परिणाम, कोई विकल्प, कोई अन्य परिदृश्य नहीं छोड़ता है। यह सिर्फ एक कठोर दावा है, और मुझे आश्चर्य है कि क्या यह एक प्रकार की निरपेक्षवादी सोच को दर्शाता है।"

चर्चा में इस बात पर बहस शामिल थी कि क्या मनुष्यों और मशीनों के बीच करीबी एकीकरण AGI द्वारा उत्पन्न जोखिम को कम कर सकता है—कुछ ऐसा जो Tesla के CEO एलन मस्क ने अतीत में प्रस्तावित किया है। युडकोवस्की ने AI के साथ विलय के विचार को खारिज कर दिया, इसकी तुलना "अपने टोस्टर ओवन के साथ विलय करने की कोशिश" से की।

सैंडबर्ग और विटा-मोर ने तर्क दिया कि, जैसे-जैसे AI सिस्टम अधिक सक्षम होते जाएंगे, मनुष्यों को AGI के बाद की दुनिया से बेहतर तरीके से निपटने के लिए उनके साथ अधिक निकटता से एकीकृत या विलय करने की आवश्यकता होगी।

"यह पूरी चर्चा इस बात की वास्तविकता जांच है कि हम मनुष्य के रूप में कौन हैं," विटा-मोर ने कहा।

डेली डीब्रीफ न्यूज़लेटर

हर दिन की शुरुआत अभी की शीर्ष समाचार कहानियों के साथ करें, साथ ही मूल फीचर्स, एक पॉडकास्ट, वीडियो और बहुत कुछ।

स्रोत: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

अस्वीकरण: इस साइट पर बाहर से पोस्ट किए गए लेख, सार्वजनिक प्लेटफार्म से लिए गए हैं और केवल सूचना देने के उद्देश्यों के लिए उपलब्ध कराए गए हैं. वे निश्चित तौर पर MEXC के विचारों को नहीं दिखाते. सभी संबंधित अधिकार मूल लेखकों के पास ही हैं. अगर आपको लगता है कि कोई कॉन्टेंट तीसरे पक्ष के अधिकारों का उल्लंघन करता है, तो कृपया उसे हटाने के लिए crypto.news@mexc.com से संपर्क करें. MEXC किसी कॉन्टेंट की सटीकता, पूर्णता या समयबद्धता के संबंध में कोई गारंटी नहीं देता है और प्रदान की गई जानकारी के आधार पर की गई किसी भी कार्रवाई के लिए जिम्मेदार नहीं है. यह कॉन्टेंट वित्तीय, कानूनी या अन्य प्रोफ़ेशनल सलाह नहीं है, न ही इसे MEXC द्वारा अनुशंसा या समर्थन माना जाना चाहिए.

आपको यह भी पसंद आ सकता है

दक्षिण अफ्रीका निजी ऊर्जा निवेश में तेजी ला रहा है

दक्षिण अफ्रीका निजी ऊर्जा निवेश में तेजी ला रहा है

दक्षिण अफ्रीका का निजी ऊर्जा निवेश अभियान बिजली बाजार को नया रूप दे रहा है, जिसमें आपूर्ति स्थिरता में सुधार और समर्थन के उद्देश्य से पूंजी प्रवाह बढ़ रहा है
शेयर करें
Furtherafrica2026/03/20 10:00
NZD/USD 0.5850 से ऊपर उछला क्योंकि संकुचित व्यापार घाटे ने किवी विश्वास को बढ़ावा दिया

NZD/USD 0.5850 से ऊपर उछला क्योंकि संकुचित व्यापार घाटे ने किवी विश्वास को बढ़ावा दिया

NZD/USD 0.5850 से ऊपर उछलता है क्योंकि संकीर्ण व्यापार घाटा किवी आत्मविश्वास को बढ़ाता है यह पोस्ट BitcoinEthereumNews.com पर दिखाई दी। NZD/USD 0.5850 से ऊपर उछलता है क्योंकि संकीर्ण
शेयर करें
BitcoinEthereumNews2026/03/20 10:43
क्रिप्टो कैसे खरीदें: GOP CBDC प्रतिबंध की लड़ाई तेज होती है जबकि Pepeto प्रीसेल तेजी से बढ़ रही है

क्रिप्टो कैसे खरीदें: GOP CBDC प्रतिबंध की लड़ाई तेज होती है जबकि Pepeto प्रीसेल तेजी से बढ़ रही है

रिपब्लिकन सांसदों के एक समूह ने केंद्रीय बैंक डिजिटल मुद्राओं पर वादा किए गए प्रतिबंध को शामिल किए बिना नए रक्षा खर्च बिल को पारित करने पर आपत्ति जताई। विवाद
शेयर करें
Techbullion2026/03/20 09:08