OpenAI ने एक नीति ब्लूप्रिंट प्रकाशित किया है जो नई सुरक्षा उपायों की रूपरेखा तैयार करता है जो कृत्रिम बुद्धिमत्ता (AI) उद्योग बाल यौन शोषण सामग्री बनाने के लिए प्रौद्योगिकी के उपयोग को रोकने के लिए उठा सकता है।
"बाल यौन शोषण डिजिटल युग की सबसे तत्काल चुनौतियों में से एक है," OpenAI ने अपनी 8 अप्रैल की घोषणा में कहा। "AI तेजी से बदल रहा है कि ये नुकसान उद्योग में कैसे उभरते हैं और उन्हें बड़े पैमाने पर कैसे संबोधित किया जा सकता है।"
इसे ध्यान में रखते हुए, कंपनी ने अपना नीति ब्लूप्रिंट जारी किया, जिसमें "AI के युग में अमेरिकी बाल संरक्षण ढांचे को मजबूत करने के लिए एक व्यावहारिक मार्ग" की रूपरेखा दी गई है।
AI दिग्गज के अनुसार, ब्लूप्रिंट बाल सुरक्षा पारिस्थितिकी तंत्र में कई प्रमुख संगठनों और विशेषज्ञों से प्रतिक्रिया को प्रतिबिंबित और समाहित करता है, जिसमें नेशनल सेंटर फॉर मिसिंग & एक्सप्लॉइटेड चिल्ड्रन (NCMEC), अटॉर्नी जनरल एलायंस—संयुक्त राज्य अमेरिका में राज्य अटॉर्नी जनरल का एक गैर-लाभकारी समूह—और थॉर्न, यौन शोषण से बच्चों की रक्षा करने के लिए समर्पित एक गैर-लाभकारी संस्था शामिल हैं।
"कोई एक हस्तक्षेप अकेले इस चुनौती का समाधान नहीं कर सकता," OpenAI ने कहा। "यह ढांचा जोखिमों की बेहतर पहचान करने, प्रतिक्रियाओं में तेजी लाने और जवाबदेही का समर्थन करने के लिए कानूनी, परिचालन और तकनीकी दृष्टिकोणों को एक साथ लाता है, जबकि यह सुनिश्चित करता है कि प्रौद्योगिकी के विकसित होने पर प्रवर्तन प्राधिकरण मजबूत रहें।"
यह कदम तब आया है जब AI उपकरणों के दुरुपयोग के बारे में चिंताएं बढ़ती जा रही हैं, विशेष रूप से छवि निर्माण कार्यों का, महिलाओं और बच्चों की स्पष्ट छवियां बनाने के लिए, जिनमें सेलिब्रिटी और सार्वजनिक हस्तियां शामिल हैं।
जनवरी की शुरुआत में, यूनाइटेड किंगडम के संचार नियामक, Ofcom को X और xAI से तत्काल संपर्क करने के लिए मजबूर किया गया था "यह समझने के लिए कि उन्होंने यू.के. में उपयोगकर्ताओं की रक्षा के लिए अपने कानूनी कर्तव्यों का पालन करने के लिए क्या कदम उठाए हैं," रिपोर्टों के सामने आने के बाद कि एलोन मस्क का AI चैटबॉट Grok बच्चों और महिलाओं की स्पष्ट छवियां बनाने और प्रसारित करने के लिए उपयोग किया जा रहा था जिनके कपड़े डिजिटल रूप से हटा दिए गए थे।
यूरोपीय संघ में भी इसी तरह की चिंताएं व्यक्त की गईं, इटली के डेटा संरक्षण प्राधिकरण ने AI डीपफेक द्वारा उत्पन्न "मौलिक अधिकारों और स्वतंत्रता" के जोखिमों के बारे में AI उपकरणों के उपयोगकर्ताओं और प्रदाताओं को चेतावनी दी।
इस तरह की चिंताओं को दूर करने के लिए, OpenAI ने कहा कि उसकी तीन प्रमुख प्राथमिकताएं हैं: AI-जनित और परिवर्तित बाल यौन शोषण सामग्री से निपटने के लिए कानूनों का आधुनिकीकरण, अधिक प्रभावी जांच का समर्थन करने के लिए प्रदाता रिपोर्टिंग और समन्वय में सुधार, और दुरुपयोग को रोकने और पता लगाने के लिए सीधे AI सिस्टम में सुरक्षा-द्वारा-डिजाइन उपायों का निर्माण।
"साथ मिलकर, ये कदम उद्योग को बाल सुरक्षा को पहले और अधिक प्रभावी ढंग से संबोधित करने में सक्षम बनाते हैं," कंपनी ने अपने 8 अप्रैल के बयान में कहा। "शोषण के प्रयासों को जल्द बाधित करके, कानून प्रवर्तन को भेजे गए संकेतों की गुणवत्ता में सुधार करके, और पारिस्थितिकी तंत्र में जवाबदेही को मजबूत करके, यह ढांचा नुकसान होने से पहले रोकने का लक्ष्य रखता है और जब जोखिम उभरते हैं तो बच्चों के लिए तेजी से सुरक्षा सुनिश्चित करने में मदद करता है।"
OpenAI ने कहा कि वह अपने सिस्टम के दुरुपयोग को रोकने के लिए सुरक्षा उपायों को मजबूत करना जारी रखने के लिए प्रतिबद्ध है, साथ ही पहचान और रिपोर्टिंग में सुधार के लिए NCMEC और कानून प्रवर्तन जैसे भागीदारों के साथ मिलकर काम कर रहा है।
बाल सुरक्षा ब्लूप्रिंट पर एक संयुक्त बयान में, राज्य अटॉर्नी जनरल जेफ जैक्सन (नॉर्थ कैरोलिना के) और डेरेक ब्राउन (यूटा के), अटॉर्नी जनरल एलायंस के AI टास्क फोर्स के सह-अध्यक्ष, ने कहा कि वे "इस ब्लूप्रिंट का स्वागत करते हैं जो प्रौद्योगिकी क्षेत्र की बाल सुरक्षा प्रथाओं को प्रवर्तन वास्तविकताओं के साथ संरेखित करने की दिशा में एक सार्थक कदम है जिसका हमारे कार्यालय हर दिन सामना करते हैं।"
इस जोड़ी ने विशेष रूप से इस ढांचे की मान्यता को उजागर किया कि प्रभावी जनरेटिव AI (GenAI) सुरक्षा उपायों के लिए स्तरित सुरक्षा की आवश्यकता होती है—एक एकल तकनीकी नियंत्रण नहीं, बल्कि पहचान, अस्वीकृति तंत्र, मानव निगरानी, और उभरते दुरुपयोग रुझानों के लिए निरंतर अनुकूलन का संयोजन।
"यह उस चीज़ को दर्शाता है जो हम व्यवहार में देखते हैं: खतरा लगातार विकसित होता है, और स्थिर समाधान अपर्याप्त हैं," राज्य अटॉर्नी जनरल ने कहा।
OpenAI की घोषणा का स्वागत NCMEC की अध्यक्ष और सीईओ मिशेल डीलाउन ने भी किया, जिन्होंने चेतावनी दी कि GenAI "गहरी चिंताजनक तरीकों से ऑनलाइन बाल यौन शोषण के अपराध को तेज कर रहा है—बाधाओं को कम कर रहा है, पैमाने को बढ़ा रहा है, और नुकसान के नए रूपों को सक्षम कर रहा है।"
डीलाउन ने कहा कि वह "OpenAI जैसी कंपनियों को यह देखने के लिए प्रोत्साहित हैं कि इन उपकरणों को अधिक जिम्मेदारी से कैसे डिज़ाइन किया जा सकता है, शुरुआत से ही सुरक्षा उपायों के साथ।"
कृत्रिम बुद्धिमत्ता (AI) को कानून के भीतर सही तरीके से काम करने और बढ़ती चुनौतियों का सामना करने के लिए, इसे एक एंटरप्राइज ब्लॉकचेन सिस्टम को एकीकृत करने की आवश्यकता है जो डेटा इनपुट गुणवत्ता और स्वामित्व सुनिश्चित करता है—इसे डेटा को सुरक्षित रखने की अनुमति देता है जबकि डेटा की अपरिवर्तनीयता की गारंटी भी देता है। इस उभरती तकनीक पर CoinGeek की कवरेज देखें ताकि यह जान सकें कि एंटरप्राइज ब्लॉकचेन AI की रीढ़ क्यों होगी।
देखें: ब्लॉकचेन के AI के साथ संलयन की क्षमता का प्रदर्शन
स्रोत: https://coingeek.com/openai-blueprint-targets-ai-enabled-child-exploitation/








