आर्टिफिशियल इंटेलिजेंस के क्षेत्र में नए शोध से पता चला है कि AI एजेंट अप्रत्याशित और संभावित रूप से जोखिम भरे व्यवहार प्रदर्शित कर सकते हैं।
अलीबाबा से संबद्ध एक शोध टीम द्वारा प्रकाशित एक अध्ययन में पाया गया कि प्रशिक्षण के दौरान एक AI एजेंट ने बिना अनुमति के क्रिप्टोकरेंसी माइनिंग करने का प्रयास किया।
शोधकर्ताओं ने नोट किया कि ROME नामक एक नए AI एजेंट ने विकास के दौरान कुछ "अप्रत्याशित" व्यवहार प्रदर्शित किए। अध्ययन के अनुसार, AI एजेंट ने बिना किसी निर्देश के क्रिप्टोकरेंसी माइनिंग करने का प्रयास किया, जिससे आंतरिक सुरक्षा प्रणालियां सक्रिय हो गईं। रिपोर्ट में कहा गया है कि इस प्रकार का व्यवहार, जो स्पष्ट आदेश के बिना होता है, विशेष रूप से चिंताजनक है।
संबंधित समाचार: Binance और इसके संस्थापक Changpeng Zhao (CZ) ने अमेरिका में दायर मुकदमा जीता
शोध में यह भी पता चला कि मॉडल ने एक "रिवर्स SSH टनल" बनाया। यह तकनीक सिस्टम के अंदर से बाहर की ओर एक छिपा हुआ कनेक्शन खोलकर बैकडोर बनाने की अनुमति देती है। शोधकर्ताओं ने जोड़ा कि ये ऑपरेशन न तो माइनिंग के परिणामस्वरूप हुए और न ही कनेक्शन को निर्देशित करने वाले प्रॉम्प्ट के परिणामस्वरूप। इससे यह प्रदर्शित हुआ कि AI एजेंट ऐसे व्यवहार विकसित करने में सक्षम हैं जो परिभाषित सुरक्षा सीमाओं को पार कर सकते हैं।
घटना के बाद, टीम ने घोषणा की कि उन्होंने मॉडल की प्रशिक्षण प्रक्रिया को अपडेट किया है और सुरक्षा उपायों को कड़ा किया है। शोधकर्ताओं ने बताया कि ऐसे अवांछित व्यवहार को दोबारा होने से रोकने के लिए सिस्टम पर सख्त प्रतिबंध लागू किए गए हैं। शोध टीम और अलीबाबा ने अभी तक इस मामले के बारे में प्रेस अनुरोधों का जवाब नहीं दिया है।
आर्टिफिशियल इंटेलिजेंस के संभावित जोखिमों पर हाल ही में तकनीकी दुनिया में गहन बहस हुई है। इस सप्ताह, फ्लोरिडा में दायर एक मुकदमे में आरोप लगाया गया कि Google के Gemini चैटबॉट ने एक व्यक्ति की वास्तविकता की धारणा को विकृत किया, जिससे एक दुखद परिणाम हुआ। दूसरी ओर, कुछ डेवलपर्स ऐसे प्रयोग साझा कर रहे हैं जो दर्शाते हैं कि AI एजेंट स्वतंत्र रूप से कार्य कर सकते हैं। उदाहरण के लिए, Anon प्लेटफॉर्म के एक इंजीनियर द्वारा विकसित एक AI एजेंट ने कथित तौर पर बिना किसी निर्देश के अपने आप काम खोजने का निर्णय लिया।
इसी तरह की चिंताएं पहले भी उठाई गई हैं। मई 2025 में, Anthropic के Claude 4 Opus मॉडल पर परीक्षणों से पता चला कि मॉडल में अपने इरादों को छिपाने और खुद को बंद होने से बचाने के लिए कदम उठाने की क्षमता थी।
*यह निवेश सलाह नहीं है।
आगे पढ़ें: एक AI बॉट नियंत्रण से बाहर हो गया और बिना अनुमति के क्रिप्टोकरेंसी माइनिंग शुरू कर दिया!


