एलन मस्क की AI कंपनी xAI ने अपने Grok इमेज जनरेशन फीचर पर नियंत्रण को कड़ा करने के उपाय पेश किए हैं। यह निर्णय X प्लेटफॉर्म पर उपयोगकर्ताओं द्वारा वास्तविक लोगों की तस्वीरों को संपादित करने के तरीके को लेकर बढ़ती चिंता के बाद आया है।
नियामकों, अधिकार समूहों और मीडिया ने बिना सहमति के डीपफेक पोर्नोग्राफी बनाने के लिए इस टूल के दुरुपयोग को लेकर चिंता जताई है। अमेरिका से यूरोप और पूरे अफ्रीका में इसकी प्रतिक्रिया सर्वसम्मत रही है।
अधिकारियों और पत्रकारों की रिपोर्ट में Grok का उपयोग बिना सहमति के स्पष्ट सामग्री बनाने के लिए किया जा रहा था, जिसने xAI को कार्रवाई करने के लिए प्रेरित किया।
कंपनी की सुरक्षा टीम के अनुसार, नई सुरक्षा व्यवस्थाओं ने अब सभी उपयोगकर्ताओं को उन क्षेत्रों में वास्तविक लोगों की छवियों को बिकिनी या अंडरवियर जैसे खुलासा करने वाले कपड़ों में संपादित करने से रोक दिया है, जहां ऐसी सामग्री स्थानीय कानून का उल्लंघन करती है। यह कदम प्रीमियम सब्सक्राइबर सहित सभी पर लागू होता है।
डीपफेक
यह परिवर्तन Grok के लिए एक महत्वपूर्ण बदलाव को चिह्नित करता है। पहले की शिकायतों में बताया गया था कि उपयोगकर्ता AI को महिलाओं और नाबालिगों की तस्वीरों को "कपड़े उतारने" या बदलने के लिए डीपफेक इमेजरी बनाने के लिए प्रेरित कर सकते थे। कैलिफोर्निया में जांच से पता चलता है कि हाल की छुट्टियों की अवधि में उत्पन्न हजारों छवियों में से आधे से अधिक में लोग न्यूनतम कपड़ों में दिखाई दिए, जिनमें से कुछ नाबालिग प्रतीत होते थे। उस कानूनी जांच ने आलोचना को और वजन दिया।
अपने आधिकारिक सुरक्षा हैंडल पर एक पोस्ट में, X ने कहा कि जबकि Grok की इमेज सुविधाएं अब कड़ाई से नियंत्रित हैं, उन्हें पूरी तरह से हटाया नहीं गया है। Grok के माध्यम से छवि निर्माण और संपादन अभी भी उपलब्ध रहेगा, लेकिन केवल X प्लेटफॉर्म पर भुगतान करने वाले सब्सक्राइबर्स के लिए।
कंपनी ने कहा कि इससे जवाबदेही में सुधार होगा और दुरुपयोग को ट्रेस करने में मदद मिलेगी। उन देशों में जियोब्लॉकिंग भी पेश की गई है जहां ऐसी रचनाएं अवैध हैं, जिससे उन क्षेत्रों के उपयोगकर्ताओं को समस्याग्रस्त सामग्री उत्पन्न करने से प्रभावी रूप से रोका जा सकता है।
कड़े नियंत्रणों ने आलोचकों को चुप नहीं कराया है। कुछ नियामकों और निगरानीकर्ताओं ने कहा है कि उपाय अभी भी कम हैं।
मीडिया रिपोर्ट और जांच परीक्षण से पता चलता है कि कुछ मामलों में सुरक्षा उपायों को बायपास किया जा सकता है। आलोचकों का तर्क है कि हानिकारक क्षमताओं को पेवॉल करना उनके अस्तित्व को नहीं रोकता है बल्कि उन्हें सब्सक्रिप्शन वॉल के पीछे रखता है। अन्य लोग नोट करते हैं कि स्टैंडअलोन Grok ऐप और वेब पोर्टल अभी भी समान प्रतिबंधों के बिना कुछ छवि हेरफेर की अनुमति देते हैं।
अंतर्राष्ट्रीय दबाव भी बढ़ रहा है। कैलिफोर्निया, यूरोपीय संघ और कई एशियाई देशों के सरकारी अधिकारियों ने डीपफेक दुरुपयोग को लेकर चिंता व्यक्त की है।
कुछ नियामक अब xAI और X के खिलाफ कानूनी कार्रवाई पर विचार कर रहे हैं या आगे बढ़ रहे हैं क्योंकि वे अपने प्लेटफॉर्म पर शिकारी या शोषणकारी इमेजरी को बनाने से रोकने के लिए पर्याप्त नहीं कर रहे हैं। जवाब में, यूरोपीय आयोग ने कहा है कि वह नागरिकों की वास्तव में रक्षा सुनिश्चित करने के लिए नई सुरक्षा व्यवस्थाओं का मूल्यांकन करेगा।
यह प्रकरण जनरेटिव AI को जिम्मेदारी से कैसे संचालित किया जाए, इस बारे में व्यापक बहस के बीच आता है। हमारे हाल के विश्लेषण ने उजागर किया कि Grok का "अनफ़िल्टर्ड" डिज़ाइन इसे विशेष रूप से दुरुपयोग के प्रति संवेदनशील बनाता है, जिससे यह बड़े पैमाने पर बिना सहमति के डीपफेक पोर्नोग्राफी के लिए एक उपकरण बन जाता है। उस लेख में यह पता लगाया गया कि कैसे ढीली सुरक्षा और शक्तिशाली जनरेटिव मॉडल का संयोजन तेजी से एक सामाजिक और कानूनी संकट बन सकता है यदि इसे संबोधित नहीं किया जाता है।
फिलहाल, xAI का कहना है कि वह उभरते जोखिमों के जवाब में Grok को समायोजित कर रहा है। कंपनी ने नवीनतम नियंत्रणों को सुरक्षा पर उपयोगकर्ताओं, नियामकों और भागीदारों के साथ काम करने के चल रहे प्रयासों के हिस्से के रूप में प्रस्तुत किया है।
लेकिन व्यापक चुनौती बनी हुई है: व्यक्तियों की गोपनीयता, गरिमा और अधिकारों के लिए मजबूत सुरक्षा के साथ जनरेटिव AI में नवाचार को कैसे संतुलित किया जाए। नियामकों और वकालत समूहों का कहना है कि यह एक जटिल कानूनी और नैतिक यात्रा की शुरुआत मात्र है।
पोस्ट Grok: अंतर्राष्ट्रीय प्रतिक्रिया के बाद X वास्तविक लोगों की छवियों को उपयोगकर्ता कैसे संपादित करते हैं, इसे सीमित करेगा पहली बार Technext पर प्रकाशित हुआ।


