यह पोस्ट Will Artificial Intelligence Save Humanity—Or End It? BitcoinEthereumNews.com पर प्रकाशित हुई। संक्षेप में एक ऑनलाइन पैनल ने ट्रांसह्यूमनिस्टों के बीच गहरी खाई को प्रदर्शित कियायह पोस्ट Will Artificial Intelligence Save Humanity—Or End It? BitcoinEthereumNews.com पर प्रकाशित हुई। संक्षेप में एक ऑनलाइन पैनल ने ट्रांसह्यूमनिस्टों के बीच गहरी खाई को प्रदर्शित किया

क्या कृत्रिम बुद्धिमत्ता मानवता को बचाएगी—या इसे समाप्त कर देगी?

संक्षेप में

  • एक ऑनलाइन पैनल ने AGI को लेकर ट्रांसह्यूमनिस्ट और प्रौद्योगिकीविदों के बीच गहरे विभाजन को प्रदर्शित किया।
  • लेखक एलीज़र युडकोवस्की ने चेतावनी दी कि वर्तमान "ब्लैक बॉक्स" AI सिस्टम विलुप्ति को अपरिहार्य परिणाम बनाते हैं।
  • मैक्स मोर ने तर्क दिया कि AGI में देरी करने से मानवता को उम्र बढ़ने को हराने और दीर्घकालिक आपदा को रोकने का सबसे अच्छा मौका खोना पड़ सकता है।

कृत्रिम बुद्धिमत्ता के भविष्य को लेकर एक तीव्र विभाजन इस सप्ताह सामने आया जब चार प्रमुख प्रौद्योगिकीविदों और ट्रांसह्यूमनिस्ट ने बहस की कि क्या कृत्रिम सामान्य बुद्धिमत्ता, या AGI का निर्माण मानवता को बचाएगा या इसे नष्ट करेगा।

गैर-लाभकारी संगठन Humanity+ द्वारा आयोजित पैनल ने सबसे मुखर AI "डूमर्स" में से एक, एलीज़र युडकोवस्की को एक साथ लाया, जिन्होंने उन्नत AI विकास को बंद करने की मांग की है, साथ ही दार्शनिक और भविष्यवादी मैक्स मोर, कम्प्यूटेशनल न्यूरोसाइंटिस्ट एंडर्स सैंडबर्ग, और Humanity+ के अध्यक्ष एमेरिटस नताशा विटा-मोर।

उनकी चर्चा ने इस बात पर मौलिक असहमति प्रकट की कि क्या AGI को मानव अस्तित्व के साथ संरेखित किया जा सकता है या क्या इसका निर्माण विलुप्ति को अपरिहार्य बना देगा।

"ब्लैक बॉक्स" समस्या

युडकोवस्की ने चेतावनी दी कि आधुनिक AI सिस्टम मूल रूप से असुरक्षित हैं क्योंकि उनकी आंतरिक निर्णय लेने की प्रक्रियाओं को पूरी तरह से समझा या नियंत्रित नहीं किया जा सकता है।

"कोई भी ब्लैक बॉक्स संभवतः वर्तमान तकनीक के समान ही उल्लेखनीय रूप से समान समस्याओं के साथ समाप्त होने वाला है," युडकोवस्की ने चेतावनी दी। उन्होंने तर्क दिया कि उन्नत AI को सुरक्षित रूप से विकसित करने से पहले मानवता को "वर्तमान प्रतिमानों से बहुत, बहुत दूर" जाने की आवश्यकता होगी।

कृत्रिम सामान्य बुद्धिमत्ता AI के एक रूप को संदर्भित करती है जो कार्यों की एक विस्तृत श्रृंखला में तर्क और सीख सकती है, बजाय इसके कि टेक्स्ट, इमेज या वीडियो जनरेशन जैसे एकल कार्य के लिए बनाई गई हो। AGI को अक्सर तकनीकी सिंगुलैरिटी के विचार से जोड़ा जाता है, क्योंकि बुद्धिमत्ता के उस स्तर तक पहुंचने से मशीनें खुद को मनुष्यों की तुलना में तेजी से सुधार सकती हैं।

युडकोवस्की ने जोखिम को स्पष्ट करने के लिए दार्शनिक निक बोस्ट्रोम द्वारा लोकप्रिय "पेपरक्लिप मैक्सिमाइज़र" उपमा की ओर इशारा किया। यह विचार प्रयोग एक काल्पनिक AI को दर्शाता है जो सभी उपलब्ध पदार्थ को पेपरक्लिप में बदल देता है, मानवजाति की कीमत पर एक ही उद्देश्य पर अपने जुनून को आगे बढ़ाता है। युडकोवस्की ने कहा कि अधिक उद्देश्य जोड़ने से सुरक्षा में सार्थक रूप से सुधार नहीं होगा।

AI पर अपनी हाल की पुस्तक के शीर्षक "इफ एनीवन बिल्ड्स इट, एवरीवन डाइज़" का जिक्र करते हुए, उन्होंने कहा, "हमारा शीर्षक ऐसा नहीं है कि यह शायद आपको मार सकता है," युडकोवस्की ने कहा। "हमारा शीर्षक है, अगर कोई इसे बनाता है, तो सभी मर जाते हैं।"

लेकिन मोर ने इस आधार को चुनौती दी कि चरम सावधानी सबसे सुरक्षित परिणाम प्रदान करती है। उन्होंने तर्क दिया कि AGI मानवता को उम्र बढ़ने और बीमारी पर काबू पाने का सबसे अच्छा मौका प्रदान कर सकता है।

"मेरे लिए सबसे महत्वपूर्ण बात यह है कि AGI हमें उम्र बढ़ने के कारण जीवित प्रत्येक व्यक्ति के विलुप्त होने को रोकने में मदद कर सकता है," मोर ने कहा। "हम सभी मर रहे हैं। हम एक-एक करके आपदा की ओर बढ़ रहे हैं।" उन्होंने चेतावनी दी कि अत्यधिक संयम सरकारों को दुनिया भर में AI विकास को रोकने के एकमात्र तरीके के रूप में सत्तावादी नियंत्रण की ओर धकेल सकता है।

सैंडबर्ग ने खुद को दोनों शिविरों के बीच स्थित किया, खुद को "अधिक आशावादी" के रूप में वर्णित करते हुए जबकि ट्रांसह्यूमनिस्ट आशावादियों की तुलना में अधिक सतर्क रहे। उन्होंने एक व्यक्तिगत अनुभव सुनाया जिसमें उन्होंने लगभग एक जैव हथियार डिजाइन करने में सहायता के लिए एक बड़े भाषा मॉडल का उपयोग किया, एक प्रकरण जिसे उन्होंने "भयावह" बताया।

"हम एक ऐसे बिंदु पर पहुंच रहे हैं जहां दुर्भावनापूर्ण अभिनेताओं को बढ़ाना भी एक बड़ी गड़बड़ी का कारण बनने वाला है," सैंडबर्ग ने कहा। फिर भी, उन्होंने तर्क दिया कि आंशिक या "अनुमानित सुरक्षा" प्राप्त की जा सकती है। उन्होंने इस विचार को खारिज कर दिया कि सुरक्षा सार्थक होने के लिए पूर्ण होनी चाहिए, यह सुझाव देते हुए कि मनुष्य कम से कम अस्तित्व जैसे न्यूनतम साझा मूल्यों पर एकजुट हो सकते हैं।

"तो अगर आप पूर्ण सुरक्षा की मांग करते हैं, तो आपको यह नहीं मिलने वाली है। और यह उस दृष्टिकोण से बहुत बुरा लगता है," उन्होंने कहा। "दूसरी ओर, मुझे लगता है कि हम वास्तव में अनुमानित सुरक्षा प्राप्त कर सकते हैं। यह काफी अच्छा है।"

संरेखण पर संशयवाद

विटा-मोर ने व्यापक संरेखण बहस की आलोचना की, यह तर्क देते हुए कि यह अवधारणा सहमति के एक स्तर को मानती है जो लंबे समय तक सहयोगियों के बीच भी मौजूद नहीं है।

"संरेखण धारणा एक पोलीएना योजना है," उन्होंने कहा। "यह कभी संरेखित नहीं होगा। मेरा मतलब है, यहां तक कि यहां, हम सभी अच्छे लोग हैं। हम एक-दूसरे को दशकों से जानते हैं, और हम संरेखित नहीं हैं।"

उन्होंने युडकोवस्की के दावे का वर्णन किया कि AGI अनिवार्य रूप से सभी को मार देगा "निरपेक्षवादी सोच" के रूप में जो अन्य परिणामों के लिए कोई जगह नहीं छोड़ती है।

"मुझे इस व्यापक कथन से समस्या है कि सभी मर जाते हैं," उन्होंने कहा। "एक भविष्यवादी और व्यावहारिक विचारक के रूप में इसे देखते हुए, यह कोई परिणाम, कोई विकल्प, कोई अन्य परिदृश्य नहीं छोड़ता है। यह सिर्फ एक कठोर दावा है, और मुझे आश्चर्य है कि क्या यह एक प्रकार की निरपेक्षवादी सोच को दर्शाता है।"

चर्चा में इस बात पर बहस शामिल थी कि क्या मनुष्यों और मशीनों के बीच करीबी एकीकरण AGI द्वारा उत्पन्न जोखिम को कम कर सकता है—कुछ ऐसा जो Tesla के CEO एलन मस्क ने अतीत में प्रस्तावित किया है। युडकोवस्की ने AI के साथ विलय के विचार को खारिज कर दिया, इसकी तुलना "अपने टोस्टर ओवन के साथ विलय करने की कोशिश" से की।

सैंडबर्ग और विटा-मोर ने तर्क दिया कि, जैसे-जैसे AI सिस्टम अधिक सक्षम होते जाएंगे, मनुष्यों को AGI के बाद की दुनिया से बेहतर तरीके से निपटने के लिए उनके साथ अधिक निकटता से एकीकृत या विलय करने की आवश्यकता होगी।

"यह पूरी चर्चा इस बात की वास्तविकता जांच है कि हम मनुष्य के रूप में कौन हैं," विटा-मोर ने कहा।

डेली डीब्रीफ न्यूज़लेटर

हर दिन की शुरुआत अभी की शीर्ष समाचार कहानियों के साथ करें, साथ ही मूल फीचर्स, एक पॉडकास्ट, वीडियो और बहुत कुछ।

स्रोत: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end

अस्वीकरण: इस साइट पर बाहर से पोस्ट किए गए लेख, सार्वजनिक प्लेटफार्म से लिए गए हैं और केवल सूचना देने के उद्देश्यों के लिए उपलब्ध कराए गए हैं. वे निश्चित तौर पर MEXC के विचारों को नहीं दिखाते. सभी संबंधित अधिकार मूल लेखकों के पास ही हैं. अगर आपको लगता है कि कोई कॉन्टेंट तीसरे पक्ष के अधिकारों का उल्लंघन करता है, तो कृपया उसे हटाने के लिए service@support.mexc.com से संपर्क करें. MEXC किसी कॉन्टेंट की सटीकता, पूर्णता या समयबद्धता के संबंध में कोई गारंटी नहीं देता है और प्रदान की गई जानकारी के आधार पर की गई किसी भी कार्रवाई के लिए जिम्मेदार नहीं है. यह कॉन्टेंट वित्तीय, कानूनी या अन्य प्रोफ़ेशनल सलाह नहीं है, न ही इसे MEXC द्वारा अनुशंसा या समर्थन माना जाना चाहिए.

आपको यह भी पसंद आ सकता है

US ने Iran से जुड़ी मुश्किलों के बीच UK के क्रिप्टो exchanges पर sanctions लगाए

US ने Iran से जुड़ी मुश्किलों के बीच UK के क्रिप्टो exchanges पर sanctions लगाए

अमेरिका के ट्रेजरी विभाग ने पहली बार ईरान के Islamic Revolutionary Guard Corps (IRGC) से जुड़े फंड्स को प्रोसेस करने वाली दो UK-रजिस्टर्ड क्रिप्टोकरेन्सी एक्सचे
शेयर करें
Beincrypto HI2026/02/02 05:14
LIT तकनीकी विश्लेषण 1 फरवरी

LIT तकनीकी विश्लेषण 1 फरवरी

LIT टेक्निकल एनालिसिस फरवरी 1 पोस्ट BitcoinEthereumNews.com पर प्रकाशित हुआ। LIT, क्षैतिज ट्रेंड संरचना के भीतर EMA20 से ऊपर बना हुआ है, जो अल्पकालिक तेजी का संकेत दे रहा है
शेयर करें
BitcoinEthereumNews2026/02/02 04:10
बाजार में अस्थिरता के बीच Ethereum की कीमत $2,500 से नीचे गिरी

बाजार में अस्थिरता के बीच Ethereum की कीमत $2,500 से नीचे गिरी

एथेरियम के बाजार सुधार और Bitcoin और Solana जैसी प्रमुख क्रिप्टोकरेंसी पर इसके प्रभाव के बारे में अपडेट। प्रमुख समर्थन स्तरों और बाजार की गतिविधियों के बारे में जानें।
शेयर करें
CoinLive2026/02/02 05:44