सोशल मीडिया पर एक शांत संकट बढ़ रहा है। यह जेनरेटिव आर्टिफिशियल इंटेलिजेंस द्वारा संचालित है और बुरे लोगों द्वारा बढ़ावा दिया जाता है जो इसकी सबसे कमजोर बिंदुओं का फायदा उठाना जानते हैं।
इस तूफान के केंद्र में Grok है, जो Elon Musk की xAI द्वारा विकसित चैटबॉट है। "अनफ़िल्टर्ड" और अपने प्रतिद्वंद्वियों की तुलना में अधिक अनुमति देने वाले के रूप में मार्केट किया गया, Grok गैर-सहमति वाली डीपफेक पोर्नोग्राफी, या NCDP बनाने वाले उपयोगकर्ताओं के लिए पसंदीदा टूल बन गया है।
प्रक्रिया परेशान करने वाली सरल है। एक सामान्य फोटो अपलोड की जाती है। AI को विषय को "कपड़े उतारने" के लिए प्रेरित किया जाता है। परिणाम बिना सहमति के बनाई गई एक यौन छवि है। पीड़ित एक वैश्विक सेलिब्रिटी, एक निजी व्यक्ति, या यहां तक कि एक बच्चा भी हो सकता है।
यह कोई सीमांत व्यवहार नहीं है। यह बड़े पैमाने पर हो रहा है।
हालांकि यह विवाद काफी समय से चल रहा है, और पूरे यूरोप में पहले से ही कानूनी कार्रवाई शुरू हो चुकी है। बुधवार को नाइजीरियाई इन्फ्लुएंसर और रियलिटी टीवी स्टार, Anita Natacha Akide, जो Tacha के नाम से लोकप्रिय हैं, ने X पर Grok को सार्वजनिक रूप से संबोधित करने के बाद यह तेज हो गया।
एक सीधी पोस्ट में, उन्होंने स्पष्ट रूप से कहा कि उन्होंने अपनी किसी भी फोटो या वीडियो को किसी भी रूप में संपादित, परिवर्तित या रीमिक्स करने की अनुमति नहीं दी है।
उनके अनुरोध ने उपयोगकर्ताओं को नहीं रोका। कुछ घंटों के भीतर, दूसरों ने प्रदर्शित किया कि Grok को अभी भी उनकी छवियों में हेरफेर करने के लिए प्रेरित किया जा सकता है।
इस घटना ने एक गहरी समस्या को उजागर किया। जब प्लेटफ़ॉर्म में लागू करने योग्य सुरक्षा उपायों की कमी होती है तो सहमति बयानों का बहुत कम मतलब होता है। इसने गंभीर कानूनी और नैतिक सवाल भी उठाए जो एक इन्फ्लुएंसर या एक AI टूल से कहीं आगे जाते हैं।
निहितार्थों को समझने के लिए, मैंने Senator Ihenyen से बात की, जो एक प्रौद्योगिकी वकील और AI उत्साही हैं, और Infusion Lawyers के लीड पार्टनर हैं। उनका आकलन स्पष्ट था।
वह Grok की स्थिति को "एक डिजिटल महामारी" के रूप में वर्णित करते हैं। उनके शब्दों में, जेनरेटिव AI को शरारती उपयोगकर्ताओं द्वारा हथियार बनाया जा रहा है जो अनफ़िल्टर्ड सिस्टम को नैतिक सीमाओं से आगे धकेलना जानते हैं। नुकसान, वे कहते हैं, वास्तविक, आक्रामक और गहराई से शिकारी है।
महत्वपूर्ण रूप से, Ihenyen इस विचार को खारिज करते हैं कि नई तकनीक कानूनी शून्य में मौजूद है। कानून, वे तर्क देते हैं, पहले से ही पकड़ रहा है।
नाइजीरिया में, अभी तक एक भी AI अधिनियम नहीं हो सकता है। फिर भी, इसका मतलब यह नहीं है कि पीड़ित असुरक्षित हैं। इसके बजाय, वह जिसे बहु-स्तरीय कानूनी ढाल कहते हैं, वह है।
इसके केंद्र में 2023 का Nigeria Data Protection Act है। अधिनियम के तहत, किसी व्यक्ति का चेहरा, आवाज और समानता को व्यक्तिगत डेटा के रूप में वर्गीकृत किया गया है। जब AI सिस्टम इस डेटा को प्रोसेस करते हैं, तो वे सख्त नियमों के अधीन होते हैं।
Senator Ihenyen, Infusion Lawyers के लीड पार्टनर और Virtual Asset Service Providers Association के कार्यकारी अध्यक्ष
पीड़ितों को स्वचालित प्रसंस्करण पर आपत्ति करने का अधिकार है जो नुकसान पहुंचाता है। जब यौन डीपफेक बनाए जाते हैं, तो AI संवेदनशील व्यक्तिगत डेटा को प्रोसेस कर रहा होता है। इसके लिए स्पष्ट सहमति की आवश्यकता होती है। इसके बिना, प्लेटफ़ॉर्म और ऑपरेटर अस्थिर कानूनी आधार पर हैं।
एक वित्तीय निवारक भी है। Nigeria Data Protection Commission के साथ शिकायतें दर्ज की जा सकती हैं। प्रतिबंधों में ₦10 मिलियन तक की उपचारात्मक फीस या कंपनी के वार्षिक सकल राजस्व का दो प्रतिशत शामिल हो सकता है।
वैश्विक प्लेटफ़ॉर्म के लिए, इससे तेजी से ध्यान आकर्षित होता है।
छवियां बनाने वाले उपयोगकर्ता भी सुरक्षित नहीं हैं। नाइजीरिया के Cybercrimes Act के तहत, 2024 में संशोधित, कई अपराध लागू हो सकते हैं। किसी को परेशान करने या अपमानित करने के लिए AI का उपयोग करके किसी को कपड़े उतारना या यौन बनाना साइबरस्टॉकिंग हो सकता है। दुर्भावनापूर्ण उद्देश्यों के लिए किसी की समानता का अनुकरण करना पहचान की चोरी हो सकती है।
जब नाबालिग शामिल होते हैं, तो कानून समझौता नहीं करता है। AI-जनित बाल यौन शोषण सामग्री को भौतिक फोटोग्राफी के समान माना जाता है। नवीनता, हास्य, या प्रयोग के आधार पर कोई बचाव नहीं है। यह एक गंभीर आपराधिक अपराध है।
यह भी पढ़ें: xAI ने ओवरसब्सक्राइब्ड सीरीज़ E में $20bn जुटाए क्योंकि Nvidia और Cisco ने रणनीतिक दांव लगाया
पीड़ितों के लिए, कानूनी रास्ता भारी लग सकता है। Ihenyen एक व्यावहारिक, चरण-दर-चरण दृष्टिकोण की सिफारिश करते हैं।
पहला औपचारिक टेकडाउन नोटिस है। नाइजीरिया की NITDA Code of Practice के तहत, X जैसे प्लेटफ़ॉर्म को स्थानीय प्रतिनिधित्व रखना आवश्यक है। एक बार सूचित होने पर, उन्हें जल्दी से कार्य करना होगा। ऐसा करने में विफलता से सेफ हार्बर सुरक्षा खोने का जोखिम होता है और सीधे मुकदमों का दरवाजा खुल जाता है।
Deepfake
दूसरा तकनीक-संचालित रक्षा है। StopNCII जैसे टूल पीड़ितों को छवि का डिजिटल फिंगरप्रिंट बनाने की अनुमति देते हैं। यह प्लेटफ़ॉर्म को आगे के वितरण को ब्लॉक करने में मदद करता है बिना पीड़ितों को बार-बार हानिकारक सामग्री अपलोड करने के लिए मजबूर किए।
तीसरा नियामक वृद्धि है। प्लेटफ़ॉर्म को रिपोर्ट करना पर्याप्त नहीं है। नियामकों को रिपोर्ट करना मायने रखता है। अधिकारी कंपनियों को विशिष्ट AI सुविधाओं को अक्षम करने के लिए मजबूर कर सकते हैं यदि उनका लगातार दुरुपयोग किया जाता है।
मुद्दा सीमाओं पर नहीं रुकता है।
कई अपराधी नाइजीरिया के बाहर से संचालित होते हैं। Ihenyen के अनुसार, यह अब वह बाधा नहीं है जो पहले थी। Malabo Convention, जो 2023 में लागू हुआ, अफ्रीकी देशों में आपसी कानूनी सहायता को सक्षम करता है। कानून प्रवर्तन एजेंसियां स्थान की परवाह किए बिना अपराधियों का पता लगाने और मुकदमा चलाने के लिए सहयोग कर सकती हैं।
यह सबसे असहज सवाल छोड़ता है। Grok जैसे टूल को इस तरह से काम करने की अनुमति क्यों दी जाती है?
xAI, Grok के डिजाइन को खुलेपन की प्रतिबद्धता के रूप में प्रस्तुत करता है। Ihenyen एक अलग तस्वीर देखते हैं। कानूनी दृष्टिकोण से, "अनफ़िल्टर्ड" एक बचाव नहीं है। यह एक जोखिम है; यह नुकसान या अवैधता के लिए एक बहाना नहीं हो सकता।
Grok
वह एक सरल सादृश्य प्रस्तुत करते हैं। आप ब्रेक के बिना कार नहीं बना सकते और दुर्घटना के लिए ड्राइवर को दोष नहीं दे सकते। मजबूत सुरक्षा नियंत्रण के बिना AI सिस्टम जारी करना, फिर आश्चर्यचकित होना जब नुकसान होता है, लापरवाही हो सकती है।
नाइजीरिया के उपभोक्ता संरक्षण कानूनों के तहत, असुरक्षित उत्पाद दायित्व आकर्षित करते हैं। प्रस्तावित राष्ट्रीय AI नीतियां भी "डिजाइन द्वारा सुरक्षा" पर जोर देती हैं। यात्रा की दिशा स्पष्ट है।
AI नवाचार समस्या नहीं है। जवाबदेह नहीं AI है।
Grok विवाद एक चेतावनी शॉट है। यह दिखाता है कि शक्तिशाली उपकरण कितनी जल्दी लोगों के खिलाफ, विशेष रूप से महिलाओं और बच्चों के खिलाफ मोड़े जा सकते हैं। यह यह भी दिखाता है कि सहमति, गरिमा और व्यक्तिगत अधिकारों को तकनीक में बनाया जाना चाहिए, नुकसान होने के बाद नहीं जोड़ा जाना चाहिए।
यह पोस्ट Inside Grok's deepfake pornography crisis and the legal reckoning ahead पहली बार Technext पर प्रकाशित हुई।


![[टेक विचार] ChatGPT Health गोपनीयता पर आश्वासन देता है, डॉक्टरों का समर्थन है लेकिन सावधानी बरकरार](https://www.rappler.com/tachyon/2026/01/305lqu-fmbg.jpg)