संक्षेप में
- एक ऑनलाइन पैनल ने AGI को लेकर ट्रांसह्यूमनिस्ट और प्रौद्योगिकीविदों के बीच गहरे विभाजन को प्रदर्शित किया।
- लेखक एलीज़र युडकोवस्की ने चेतावनी दी कि वर्तमान "ब्लैक बॉक्स" AI सिस्टम विलुप्ति को अपरिहार्य परिणाम बनाते हैं।
- मैक्स मोर ने तर्क दिया कि AGI में देरी करने से मानवता को उम्र बढ़ने को हराने और दीर्घकालिक आपदा को रोकने का सबसे अच्छा मौका खोना पड़ सकता है।
कृत्रिम बुद्धिमत्ता के भविष्य को लेकर एक तीव्र विभाजन इस सप्ताह सामने आया जब चार प्रमुख प्रौद्योगिकीविदों और ट्रांसह्यूमनिस्ट ने बहस की कि क्या कृत्रिम सामान्य बुद्धिमत्ता, या AGI का निर्माण मानवता को बचाएगा या इसे नष्ट करेगा।
गैर-लाभकारी संगठन Humanity+ द्वारा आयोजित पैनल ने सबसे मुखर AI "डूमर्स" में से एक, एलीज़र युडकोवस्की को एक साथ लाया, जिन्होंने उन्नत AI विकास को बंद करने की मांग की है, साथ ही दार्शनिक और भविष्यवादी मैक्स मोर, कम्प्यूटेशनल न्यूरोसाइंटिस्ट एंडर्स सैंडबर्ग, और Humanity+ के अध्यक्ष एमेरिटस नताशा विटा-मोर।
उनकी चर्चा ने इस बात पर मौलिक असहमति प्रकट की कि क्या AGI को मानव अस्तित्व के साथ संरेखित किया जा सकता है या क्या इसका निर्माण विलुप्ति को अपरिहार्य बना देगा।
"ब्लैक बॉक्स" समस्या
युडकोवस्की ने चेतावनी दी कि आधुनिक AI सिस्टम मूल रूप से असुरक्षित हैं क्योंकि उनकी आंतरिक निर्णय लेने की प्रक्रियाओं को पूरी तरह से समझा या नियंत्रित नहीं किया जा सकता है।
"कोई भी ब्लैक बॉक्स संभवतः वर्तमान तकनीक के समान ही उल्लेखनीय रूप से समान समस्याओं के साथ समाप्त होने वाला है," युडकोवस्की ने चेतावनी दी। उन्होंने तर्क दिया कि उन्नत AI को सुरक्षित रूप से विकसित करने से पहले मानवता को "वर्तमान प्रतिमानों से बहुत, बहुत दूर" जाने की आवश्यकता होगी।
कृत्रिम सामान्य बुद्धिमत्ता AI के एक रूप को संदर्भित करती है जो कार्यों की एक विस्तृत श्रृंखला में तर्क और सीख सकती है, बजाय इसके कि टेक्स्ट, इमेज या वीडियो जनरेशन जैसे एकल कार्य के लिए बनाई गई हो। AGI को अक्सर तकनीकी सिंगुलैरिटी के विचार से जोड़ा जाता है, क्योंकि बुद्धिमत्ता के उस स्तर तक पहुंचने से मशीनें खुद को मनुष्यों की तुलना में तेजी से सुधार सकती हैं।
युडकोवस्की ने जोखिम को स्पष्ट करने के लिए दार्शनिक निक बोस्ट्रोम द्वारा लोकप्रिय "पेपरक्लिप मैक्सिमाइज़र" उपमा की ओर इशारा किया। यह विचार प्रयोग एक काल्पनिक AI को दर्शाता है जो सभी उपलब्ध पदार्थ को पेपरक्लिप में बदल देता है, मानवजाति की कीमत पर एक ही उद्देश्य पर अपने जुनून को आगे बढ़ाता है। युडकोवस्की ने कहा कि अधिक उद्देश्य जोड़ने से सुरक्षा में सार्थक रूप से सुधार नहीं होगा।
AI पर अपनी हाल की पुस्तक के शीर्षक "इफ एनीवन बिल्ड्स इट, एवरीवन डाइज़" का जिक्र करते हुए, उन्होंने कहा, "हमारा शीर्षक ऐसा नहीं है कि यह शायद आपको मार सकता है," युडकोवस्की ने कहा। "हमारा शीर्षक है, अगर कोई इसे बनाता है, तो सभी मर जाते हैं।"
लेकिन मोर ने इस आधार को चुनौती दी कि चरम सावधानी सबसे सुरक्षित परिणाम प्रदान करती है। उन्होंने तर्क दिया कि AGI मानवता को उम्र बढ़ने और बीमारी पर काबू पाने का सबसे अच्छा मौका प्रदान कर सकता है।
"मेरे लिए सबसे महत्वपूर्ण बात यह है कि AGI हमें उम्र बढ़ने के कारण जीवित प्रत्येक व्यक्ति के विलुप्त होने को रोकने में मदद कर सकता है," मोर ने कहा। "हम सभी मर रहे हैं। हम एक-एक करके आपदा की ओर बढ़ रहे हैं।" उन्होंने चेतावनी दी कि अत्यधिक संयम सरकारों को दुनिया भर में AI विकास को रोकने के एकमात्र तरीके के रूप में सत्तावादी नियंत्रण की ओर धकेल सकता है।
सैंडबर्ग ने खुद को दोनों शिविरों के बीच स्थित किया, खुद को "अधिक आशावादी" के रूप में वर्णित करते हुए जबकि ट्रांसह्यूमनिस्ट आशावादियों की तुलना में अधिक सतर्क रहे। उन्होंने एक व्यक्तिगत अनुभव सुनाया जिसमें उन्होंने लगभग एक जैव हथियार डिजाइन करने में सहायता के लिए एक बड़े भाषा मॉडल का उपयोग किया, एक प्रकरण जिसे उन्होंने "भयावह" बताया।
"हम एक ऐसे बिंदु पर पहुंच रहे हैं जहां दुर्भावनापूर्ण अभिनेताओं को बढ़ाना भी एक बड़ी गड़बड़ी का कारण बनने वाला है," सैंडबर्ग ने कहा। फिर भी, उन्होंने तर्क दिया कि आंशिक या "अनुमानित सुरक्षा" प्राप्त की जा सकती है। उन्होंने इस विचार को खारिज कर दिया कि सुरक्षा सार्थक होने के लिए पूर्ण होनी चाहिए, यह सुझाव देते हुए कि मनुष्य कम से कम अस्तित्व जैसे न्यूनतम साझा मूल्यों पर एकजुट हो सकते हैं।
"तो अगर आप पूर्ण सुरक्षा की मांग करते हैं, तो आपको यह नहीं मिलने वाली है। और यह उस दृष्टिकोण से बहुत बुरा लगता है," उन्होंने कहा। "दूसरी ओर, मुझे लगता है कि हम वास्तव में अनुमानित सुरक्षा प्राप्त कर सकते हैं। यह काफी अच्छा है।"
संरेखण पर संशयवाद
विटा-मोर ने व्यापक संरेखण बहस की आलोचना की, यह तर्क देते हुए कि यह अवधारणा सहमति के एक स्तर को मानती है जो लंबे समय तक सहयोगियों के बीच भी मौजूद नहीं है।
"संरेखण धारणा एक पोलीएना योजना है," उन्होंने कहा। "यह कभी संरेखित नहीं होगा। मेरा मतलब है, यहां तक कि यहां, हम सभी अच्छे लोग हैं। हम एक-दूसरे को दशकों से जानते हैं, और हम संरेखित नहीं हैं।"
उन्होंने युडकोवस्की के दावे का वर्णन किया कि AGI अनिवार्य रूप से सभी को मार देगा "निरपेक्षवादी सोच" के रूप में जो अन्य परिणामों के लिए कोई जगह नहीं छोड़ती है।
"मुझे इस व्यापक कथन से समस्या है कि सभी मर जाते हैं," उन्होंने कहा। "एक भविष्यवादी और व्यावहारिक विचारक के रूप में इसे देखते हुए, यह कोई परिणाम, कोई विकल्प, कोई अन्य परिदृश्य नहीं छोड़ता है। यह सिर्फ एक कठोर दावा है, और मुझे आश्चर्य है कि क्या यह एक प्रकार की निरपेक्षवादी सोच को दर्शाता है।"
चर्चा में इस बात पर बहस शामिल थी कि क्या मनुष्यों और मशीनों के बीच करीबी एकीकरण AGI द्वारा उत्पन्न जोखिम को कम कर सकता है—कुछ ऐसा जो Tesla के CEO एलन मस्क ने अतीत में प्रस्तावित किया है। युडकोवस्की ने AI के साथ विलय के विचार को खारिज कर दिया, इसकी तुलना "अपने टोस्टर ओवन के साथ विलय करने की कोशिश" से की।
सैंडबर्ग और विटा-मोर ने तर्क दिया कि, जैसे-जैसे AI सिस्टम अधिक सक्षम होते जाएंगे, मनुष्यों को AGI के बाद की दुनिया से बेहतर तरीके से निपटने के लिए उनके साथ अधिक निकटता से एकीकृत या विलय करने की आवश्यकता होगी।
"यह पूरी चर्चा इस बात की वास्तविकता जांच है कि हम मनुष्य के रूप में कौन हैं," विटा-मोर ने कहा।
डेली डीब्रीफ न्यूज़लेटर
हर दिन की शुरुआत अभी की शीर्ष समाचार कहानियों के साथ करें, साथ ही मूल फीचर्स, एक पॉडकास्ट, वीडियो और बहुत कुछ।
स्रोत: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end
