यह लेख The 19th के साथ सह-प्रकाशित किया गया था, जो लिंग, राजनीति और नीति को कवर करने वाला एक गैर-लाभकारी न्यूज़रूम है। The 19th के न्यूज़लेटर के लिए साइन अप करें यहाँ।
\ न्यू जर्सी के वेस्टफील्ड हाई स्कूल के दो दर्जन से अधिक छात्र पिछले साल यह जानकर भयभीत हो गए कि उनकी नग्न तस्वीरें उनके साथियों के बीच फैल रही थीं। स्कूल के अनुसार, कुछ छात्रों ने मूल तस्वीरों से दूसरों की अश्लील तस्वीरें बनाने के लिए आर्टिफिशियल इंटेलिजेंस (AI) का उपयोग किया था। और वे अकेली किशोर लड़कियां नहीं हैं जो नकली नग्न तस्वीरों का शिकार हो रही हैं: वाशिंगटन राज्य और कनाडा के छात्रों ने भी इसी तरह की स्थितियों का सामना करने की रिपोर्ट दी है क्योंकि वेबसाइटों और ऐप्स के साथ तस्वीरों को यथार्थवादी रूप से बदलने की क्षमता अधिक व्यापक रूप से सुलभ हो रही है।
\ डीपफेक्स—AI-जनरेटेड छवियों या वीडियो—के आसपास बढ़ती चिंता जनवरी में और भी अधिक बढ़ गई, जब सुपरस्टार टेलर स्विफ्ट से जुड़ा एक डीपफेक सोशल मीडिया के माध्यम से तेजी से फैल गया।
\ कैरी गोल्डबर्ग, एक वकील जो एक दशक से अधिक समय से गैर-सहमति वाले पोर्न—जिसे आमतौर पर रिवेंज पोर्न कहा जाता है—के पीड़ितों का प्रतिनिधित्व कर रही हैं, ने कहा कि उन्होंने हाल ही में कंप्यूटर-जनरेटेड छवियों के पीड़ितों से सुनना शुरू किया।
\ "मेरी फर्म शायद लगभग पांच साल से डीपफेक्स के पीड़ितों को देख रही है, और यह ज्यादातर मशहूर हस्तियां रही हैं," गोल्डबर्ग ने कहा। "अब, यह बच्चे बच्चों के साथ मतलबी होने के लिए ऐसा कर रहे हैं। यह शायद वास्तव में कम रिपोर्ट किया गया है क्योंकि पीड़ितों को यह नहीं पता हो सकता है कि कानूनी सहारा है, और यह सभी मामलों में पूरी तरह से स्पष्ट नहीं है कि क्या है।"
\ शासी निकाय इसे पकड़ने की कोशिश कर रहे हैं। पिछले वर्ष या उसके आसपास, 10 राज्यों ने विशेष रूप से डीपफेक्स के निर्माण या प्रसार को अपराध घोषित करने के लिए कानून पारित किया है। इन राज्यों—कैलिफोर्निया, फ्लोरिडा, जॉर्जिया, हवाई, इलिनोइस, मिनेसोटा, न्यूयॉर्क, साउथ डकोटा, टेक्सास और वर्जीनिया सहित—ने जुर्माने से लेकर जेल की सजा तक की सजा की रूपरेखा तैयार की है। इंडियाना गैर-सहमति वाले पोर्न पर अपने वर्तमान कानून का विस्तार करके जल्द ही बढ़ती सूची में शामिल होने की संभावना है।
\ इंडियाना के रिपब्लिकन प्रतिनिधि शेरोन नेगेले ने प्रस्तावित विस्तार लिखा। मौजूदा कानून "रिवेंज पोर्न" को एक अंतरंग छवि का खुलासा करने के रूप में परिभाषित करता है, जैसे कि कोई भी जो यौन संबंध, खुले जननांग, नितंब या महिला के स्तन को दर्शाता है, छवि में दर्शाए गए व्यक्ति की सहमति के बिना। नेगेले का प्रस्तावित विधेयक दोनों सदनों से पारित हो गया है और अब राज्यपाल के हस्ताक्षर का इंतजार कर रहा है।
\ नेगेले ने कहा कि वह इंडियाना के आपराधिक कोड को अपडेट करने के लिए प्रेरित थीं जब उन्होंने एक हाई स्कूल शिक्षक की कहानी सुनी जिन्होंने पाया कि उनके कुछ छात्रों ने उनकी डीपफेक छवियां फैलाई थीं। यह शिक्षक के व्यक्तिगत जीवन के लिए "अविश्वसनीय रूप से विनाशकारी" था, और नेगेले यह देखकर हैरान थीं कि अपराधियों पर वर्तमान कानून के तहत मुकदमा नहीं चलाया जा सकता था।
\ "यह अब उपलब्ध तकनीक को समझने की मेरी शिक्षा से शुरू हुआ और लोगों के चेहरों को एक बनावटी शरीर से जोड़े जाने की घटना के बाद घटना के बारे में पढ़ना जो अविश्वसनीय रूप से वास्तविक और यथार्थवादी दिखता है," नेगेले ने कहा। "यह सिर्फ परेशान करने वाला है। एक माँ और दादी होने के नाते और सोचना कि मेरे परिवार और मेरे साथ क्या हो सकता है—यह चौंकाने वाला है। हमें इस तरह की चीजों से आगे निकलना होगा।"
\ गोल्डबर्ग, जिनकी लॉ फर्म यौन अपराधों में विशेषज्ञता रखती है, ने कहा कि वह अनुमान लगाती हैं कि अधिक राज्य AI भाषा को शामिल करने के लिए अपने मौजूदा कानून का विस्तार जारी रखेंगे।
\ "दस साल पहले, केवल तीन राज्यों में रिवेंज पोर्न या छवि-आधारित यौन शोषण कानून थे," गोल्डबर्ग ने कहा। "अब, 48 राज्यों ने रिवेंज पोर्न को गैरकानूनी घोषित कर दिया है, और इसने वास्तव में रिवेंज पोर्न में जबरदस्त कमी की है—आश्चर्य की बात नहीं—जैसा कि हम अधिवक्ताओं ने कहा था कि यह होगा। डीपफेक्स के पूरे उदय ने किसी को यौन रूप से अपमानित करने के नए तरीके के रूप में अंतराल को भर दिया है।"
\ एसोसिएटेड प्रेस के अनुसार, 2023 में, 1,43,000 से अधिक नए AI-जनरेटेड वीडियो ऑनलाइन पोस्ट किए गए। यह 2019 से एक बहुत बड़ी छलांग है, जब "न्यूडिफाई" वेबसाइट या एप्लिकेशन कम आम थे, और फिर भी एक विज़ुअल थ्रेट इंटेलिजेंस कंपनी, डीपट्रेस लैब्स की एक रिपोर्ट के अनुसार, इन नकली वीडियो में से लगभग 15,000 ऑनलाइन थे। तब भी, उन वीडियो—जिनमें से 96 प्रतिशत में महिलाओं की गैर-सहमति वाली अश्लीलता थी—ने 100 मिलियन से अधिक व्यूज प्राप्त किए थे।
\ गोल्डबर्ग ने कहा कि नीति निर्माता और जनता विशेष रूप से AI-जनरेटेड नग्न छवियों पर प्रतिबंध लगाने के लिए अधिक प्रेरित प्रतीत होते हैं क्योंकि वस्तुतः कोई भी पीड़ित हो सकता है। अधिक सहानुभूति है।
\ "रिवेंज पोर्न के साथ, चर्चाओं की पहली लहर में, हर कोई पीड़ित को दोष दे रहा था और उन्हें ऐसा लगा रहा था कि वे छवि लेने के लिए किसी प्रकार के विकृत हैं या किसी अन्य व्यक्ति के साथ साझा करने के लिए मूर्ख हैं," गोल्डबर्ग ने कहा। "डीपफेक्स के साथ, आप वास्तव में पीड़ित को दोष नहीं दे सकते क्योंकि उन्होंने केवल एक ही काम किया था कि उनके पास एक शरीर था।"
\ अमांडा मन्यामे, इक्वालिटी नाउ के लिए दक्षिण अफ्रीका स्थित डिजिटल अधिकार सलाहकार, एक अंतरराष्ट्रीय मानवाधिकार संगठन जो महिलाओं और लड़कियों की मदद करने पर केंद्रित है, ने कहा कि संयुक्त राज्य अमेरिका में डीपफेक्स के पीड़ितों के लिए वस्तुतः कोई सुरक्षा नहीं है। मन्यामे दुनिया भर में नीतियों और कानूनों का अध्ययन करती हैं, विश्लेषण करती हैं कि क्या काम कर रहा है और डिजिटल अधिकारों के आसपास कानूनी सलाह प्रदान करती हैं, विशेष रूप से तकनीक-सुविधा प्राप्त यौन शोषण और दुर्व्यवहार पर।
\ "सबसे बड़ा अंतर यह है कि अमेरिका में संघीय कानून नहीं है," मन्यामे ने कहा। "चुनौती यह है कि मुद्दा राज्य द्वारा राज्य द्वारा शासित है, और स्वाभाविक रूप से, जब सुरक्षा की बात आती है तो कोई एकरूपता या समन्वय नहीं है।"
\ हालांकि, वर्तमान में कैपिटल हिल पर एक जोर है: सीनेटरों के एक द्विदलीय समूह ने जनवरी में डिसरप्ट एक्सप्लिसिट फोर्ज्ड इमेजेज एंड नॉन-कंसेंसुअल एडिट्स एक्ट ऑफ 2024 पेश किया—जिसे DEFIANCE एक्ट के रूप में भी जाना जाता है। प्रस्तावित कानून का उद्देश्य गैर-सहमति, यौन-स्पष्ट सामग्री के प्रसार को रोकना है।
\ "किसी को भी—न तो मशहूर हस्तियों को और न ही साधारण अमेरिकियों को—कभी भी खुद को AI पोर्नोग्राफी में चित्रित नहीं पाना चाहिए," रिपब्लिकन सीनेटर जोश हॉली, विधेयक के एक सह-प्रायोजक, ने एक बयान में कहा। "निर्दोष लोगों को अपनी प्रतिष्ठा की रक्षा करने और अपराधियों को अदालत में जवाबदेह ठहराने का अधिकार है।" प्रतिनिधि अलेक्जेंड्रिया ओकासियो-कोर्टेज ने सदन में एक साझेदार विधेयक पेश किया है।
\ डेटा फॉर प्रोग्रेस के नए मतदान के अनुसार, राजनीतिक स्पेक्ट्रम में 85 प्रतिशत संभावित मतदाताओं ने कहा कि वे प्रस्तावित DEFIANCE एक्ट का समर्थन करते हैं—पुरुषों के 62 प्रतिशत की तुलना में 72 प्रतिशत महिलाएं मजबूत समर्थन में हैं।
\ लेकिन युवा पुरुषों के DEFIANCE एक्ट का विरोध करने की अधिक संभावना है, 45 वर्ष से कम उम्र के लगभग पांच में से एक पुरुष (22 प्रतिशत) ने कहा कि वे दृढ़ता से या कुछ हद तक कानून का विरोध करते हैं जो स्पष्ट गैर-सहमति वाले डीपफेक्स के विषयों को निर्माता पर मुकदमा करने की अनुमति देता है।
\ डेटा फॉर प्रोग्रेस की कार्यकारी निदेशक डेनियल डीसरोथ ने कहा कि इस मुद्दे ने युवा पुरुषों और महिलाओं के बीच "अधिक तीव्र विरोधाभासों" में से एक को दिखाया जो उन्होंने कुछ समय में देखा है।
\ "हम आत्मविश्वास से कह सकते हैं कि 45 वर्ष से कम उम्र की महिलाओं और पुरुषों की इस नीति पर अलग-अलग राय है," डीसरोथ ने कहा। "यह एक ऐसा मुद्दा है जो असमान रूप से महिलाओं को प्रभावित करता है, विशेष रूप से युवा महिलाओं को, जो रिवेंज पोर्न के शिकार होने की अधिक संभावना रखती हैं। और मुझे लगता है कि यह वास्तव में यहां मूल कारण है।"
\ गोल्डबर्ग ने कहा कि बुरे अभिनेताओं को अपराधी बनाने के लिए नीतियां बनाना एक अच्छी शुरुआत है लेकिन अंततः अपर्याप्त है। उन्होंने कहा कि एक अच्छा अगला कदम ऑनलाइन वितरकों को लक्षित करने वाली कानूनी कार्रवाई करना होगा, जैसे कि ऐप स्टोर और गूगल प्ले, जो मुख्य रूप से आपराधिक गतिविधियों के लिए उपयोग किए जाने वाले उत्पाद प्रदान कर रहे हैं। गोल्डबर्ग ने कहा कि सोशल मीडिया प्लेटफॉर्म और इंस्टेंट मैसेजिंग ऐप्स, जहां ये स्पष्ट छवियां वितरित की जाती हैं, को भी जवाबदेह ठहराया जाना चाहिए।
\ #MyImageMyChoice के संस्थापकों, एक जमीनी स्तर का संगठन जो अंतरंग छवि दुर्व्यवहार के पीड़ितों की मदद करने के लिए काम कर रहा है, ने सहमति व्यक्त की कि इन छवियों के निर्माण और वितरण में शामिल निजी कंपनियों द्वारा अधिक किया जाना चाहिए।
\ संस्थापकों—सोफी कॉम्प्टन, रूबेन हैमलिन और एलिजाबेथ वुडवर्ड—ने बताया कि गूगल जैसे सर्च इंजन डीपफेक पोर्न साइटों पर कुल वेब ट्रैफ़िक का अधिकांश हिस्सा चलाते हैं, जबकि क्रेडिट कार्ड कंपनियां उनके भुगतान की प्रक्रिया करती हैं। इंटरनेट सेवा प्रदाता लोगों को उन तक पहुंचने देते हैं, जबकि अमेज़न, क्लाउडफ्लेयर और माइक्रोसॉफ्ट के गिटहब जैसी प्रमुख सेवाएं उन्हें होस्ट करती हैं। और X जैसी सोशल मीडिया साइटें सामग्री को बड़े पैमाने पर प्रसारित करने की अनुमति देती हैं। गूगल ने 2015 में अपनी नीति बदली और पीड़ितों को खोज परिणामों से सामग्री के व्यक्तिगत टुकड़ों को हटाने के लिए एक अनुरोध प्रस्तुत करने की अनुमति देना शुरू किया और तब से नीति को डीपफेक दुर्व्यवहार तक विस्तारित किया है। हालांकि, कंपनी व्यवस्थित रूप से छवि-आधारित यौन हिंसा और डीपफेक दुर्व्यवहार साइटों को डीलिस्ट नहीं करती है।
\ "टेक कंपनियों के पास इन साइटों को ब्लॉक करने, डी-इंडेक्स करने या सेवा से इनकार करने की शक्ति है—साइटें जिनका पूरा अस्तित्व सहमति का उल्लंघन करने और आघात से लाभ कमाने पर बनाया गया है," कॉम्प्टन, हैमलिन और वुडवर्ड ने The 19th को एक बयान में कहा। "लेकिन उन्होंने ऐसा नहीं करना चुना है।"
\ गोल्डबर्ग ने टेलर स्विफ्ट डीपफेक्स के फैलने की गति की ओर इशारा किया। X, जिसे पहले ट्विटर के रूप में जाना जाता था, पर साझा की गई एक छवि को उस खाते को निलंबित करने से पहले 47 मिलियन बार देखा गया था जिसने इसे पोस्ट किया था। सोशल मीडिया कंपनियों द्वारा उन्हें हटाने के प्रयासों के बावजूद छवियां फैलती रहीं।
\ "टेलर स्विफ्ट की हिंसक, महिला विरोधी तस्वीरें, कैनसस सिटी चीफ्स फुटबॉल गेम में खूनी और नग्न, समस्या का प्रतीक हैं," गोल्डबर्ग ने कहा। "उस वितरण की सीमा, वास्तव में मुख्यधारा की साइटों सहित, सभी को एक संदेश भेजती है कि इस सामग्री को बनाना ठीक है। मेरे लिए, यह वास्तव में एक महत्वपूर्ण और काफी भयावह क्षण था।"
\ पीड़ित की उच्च प्रोफ़ाइल प्रकृति को देखते हुए, घटना ने स्विफ्ट के प्रशंसकों से स्पष्ट और व्यापक आक्रोश पैदा किया और मुद्दे पर सार्वजनिक ध्यान लाया। गोल्डबर्ग ने कहा कि उन्होंने यह देखने के लिए जांच की कि क्या किसी भी ऑनलाइन वितरकों ने अपने ऑनलाइन स्टोर से उत्पादों को हटा दिया है जो यौन रूप से स्पष्ट डीपफेक्स बनाना आसान और सस्ता बनाते हैं—और वह यह देखकर राहत महसूस कर रही थीं कि उन्होंने ऐसा किया था।
\ जैसे-जैसे देश के नीति निर्माता और अदालतें तेजी से विकसित होने वाली और तेजी से सुलभ तकनीक का जवाब देने की कोशिश जारी रखते हैं, गोल्डबर्ग ने कहा कि यह महत्वपूर्ण है कि कानून निर्माता विशेषज्ञों और उन लोगों को स्थगित करना जारी रखें जो सीधे पीड़ितों के साथ काम करते हैं, जैसे कि वकील, सामाजिक कार्यकर्ता और अधिवक्ता। उन्होंने कहा कि कानून निर्माता जो अमूर्त विचारों या तेजी से उन्नत तकनीकों को विनियमित कर रहे हैं, अन्यथा "आपदा के लिए एक नुस्खा" हो सकते हैं।
\ मन्यामे ने भी नीति निर्णय लेते समय सीधे जीवित बचे लोगों से बात करने के महत्व पर जोर दिया, लेकिन कहा कि कानून निर्माताओं को समस्या के बारे में अधिक समग्र रूप से सोचने की जरूरत है और विशिष्ट तकनीक से बहुत अधिक उलझने की जरूरत नहीं है—हमेशा पीछे रहने के जोखिम पर। उदाहरण के लिए, मन्यामे ने कहा कि आम जनता अभी AI और डीपफेक्स द्वारा उत्पन्न जोखिमों को समझना शुरू कर रही है—कुछ ऐसा जिसे उन्होंने 2021 में एक रिपोर्ट लिखने में मदद की थी। आगे देखते हुए, मन्यामे पहले से ही मेटावर्स—एक वर्चुअल रियलिटी स्पेस—के बारे में सोच रही हैं, जहां उपयोगकर्ता बलात्कार, यौन उत्पीड़न और दुर्व्यवहार के उदाहरणों से निपटना शुरू कर रहे हैं।
\ "छवि-आधारित यौन शोषण के आसपास के बहुत सारे कानून थोड़े पुराने हैं क्योंकि वे विशेष रूप से रिवेंज पोर्न के बारे में बात करते हैं," मन्यामे ने कहा। "रिवेंज पोर्न ऐतिहासिक रूप से अधिक घरेलू हिंसा का मुद्दा रहा है, इसमें यह है कि यह एक अंतरंग साथी है जो अपने पूर्व या मौजूदा साथी की यौन शोषणकारी छवि साझा कर रहा है। यह हमेशा डीपफेक्स का मामला नहीं है, इसलिए ये कानून पर्याप्त सुरक्षा प्रदान नहीं कर सकते हैं।"
\ इसके अलावा, मन्यामे ने तर्क दिया कि इनमें से कई नीतियां विविध सांस्कृतिक या धार्मिक पृष्ठभूमि पर विचार करने के लिए "अंतरंग छवि" की परिभाषा को व्यापक बनाने में विफल रहती हैं। उदाहरण के लिए, कुछ मुस्लिम महिलाओं के लिए, हिजाब के बिना उनके खुले सिर की छवियां बनाना और फैलाना उतना ही उल्लंघन और अपमानजनक हो सकता है।
\ जब समाधान की बात आती है, तो मन्यामे ने उन कार्यों की ओर इशारा किया जो ऐप निर्माताओं, प्लेटफ़ॉर्म नियामकों और कानून निर्माताओं द्वारा किए जा सकते हैं।
\ डिज़ाइन चरण में, नुकसान को सीमित करने के लिए अधिक सुरक्षा उपायों को एम्बेड किया जा सकता है। उदाहरण के लिए, मन्यामे ने कहा कि कुछ ऐसे ऐप हैं जो महिलाओं की तस्वीरें ले सकते हैं और स्वचालित रूप से उनके कपड़े हटा सकते हैं जबकि वही फ़ंक्शन पुरुषों की तस्वीरों पर काम नहीं करता है। इन ऐप्स के बैक एंड पर ऐसे तरीके हैं जो किसी से भी कपड़े हटाना कठिन बनाते हैं, उनके लिंग की परवाह किए बिना।
\ हालांकि, एक बार नापाक डीपफेक्स पहले से ही बनाए और पोस्ट किए जाते हैं, मन्यामे ने कहा कि सोशल मीडिया और मैसेजिंग प्लेटफॉर्म के पास पीड़ितों द्वारा रिपोर्ट किए जाने के बाद सामग्री को हटाने के लिए बेहतर तंत्र होने चाहिए। कई बार, व्यक्तिगत पीड़ितों को अनदेखा किया जाता है। मन्यामे ने कहा कि उन्होंने देखा है कि ये बड़ी सोशल मीडिया कंपनियां ऑस्ट्रेलिया जैसे देशों में इन डीपफेक्स को हटाने की अधिक संभावना रखती हैं, जिनके पास पीड़ितों की ओर से वकालत करने के लिए तीसरे पक्ष के नियामक हैं।
\ "किसी भी समाधान में निगरानी और प्रवर्तन तंत्र शामिल करने की आवश्यकता है," मन्यामे ने कहा। "एक बात जो हम बहुत सारे जीवित बचे लोगों से सुनते हैं वह यह है कि वे बस अपनी छवि को हटाना चाहते हैं। यह कानूनी प्रक्रिया से गुजरने के बारे में भी नहीं है। वे बस उस सामग्री को हटाना चाहते हैं।"
\ मन्यामे ने कहा कि यह कई टेक कंपनियों और सरकारी नियामकों के लिए बहुत बड़ा अनुरोध नहीं है क्योंकि कई पहले से ही बच्चों को शामिल करने वाली अनुचित तस्वीरों को हटाने के लिए जल्दी से प्रतिक्रिया देते हैं। उन्होंने कहा कि यह केवल उस तरह की सुरक्षा को महिलाओं तक विस्तारित करने का मामला है।
\ "मेरी चिंता यह है कि A.I. कानूनों और नीतियों को लागू करने की जल्दबाजी हुई है बिना इन नुकसानों के कुछ मूल कारणों पर विचार किए। यह एक स्तरित समस्या है, और कई अन्य परतें हैं जिन्हें निपटाने की आवश्यकता है।"
\ यहां भी प्रकाशित
\ अनस्प्लैश पर स्टीव जॉनसन की तस्वीर


