संक्षेप में
- OpenAI ने AI-सक्षम बाल यौन शोषण को संबोधित करते हुए अपना "चाइल्ड सेफ्टी ब्लूप्रिंट" प्रकाशित किया।
- यह ढांचा कानूनी सुधारों, मजबूत रिपोर्टिंग समन्वय और AI सिस्टम में निर्मित सुरक्षा उपायों पर केंद्रित है।
- यह प्रस्ताव बाल सुरक्षा समूहों, अटॉर्नी जनरल और गैर-लाभकारी संगठनों के इनपुट के साथ विकसित किया गया था।
AI-सक्षम बाल यौन शोषण में वृद्धि को संबोधित करने के उद्देश्य से, OpenAI ने बुधवार को एक नीति ब्लूप्रिंट प्रकाशित किया जो नए सुरक्षा उपायों को रेखांकित करता है जो उद्योग बाल यौन शोषण सामग्री बनाने में AI के उपयोग को रोकने में मदद कर सकता है।
ढांचे में, OpenAI ने कानूनी, परिचालन और तकनीकी उपायों को सूचीबद्ध किया है जिनका उद्देश्य AI-सक्षम दुर्व्यवहार के खिलाफ सुरक्षा को मजबूत करना और प्रौद्योगिकी कंपनियों और जांचकर्ताओं के बीच समन्वय में सुधार करना है।
"बाल यौन शोषण डिजिटल युग की सबसे जरूरी चुनौतियों में से एक है," कंपनी ने लिखा। "AI तेजी से बदल रहा है कि ये नुकसान उद्योग में कैसे उभरते हैं और उन्हें बड़े पैमाने पर कैसे संबोधित किया जा सकता है।"
OpenAI ने कहा कि प्रस्ताव में बाल संरक्षण और ऑनलाइन सुरक्षा में काम करने वाले संगठनों से प्रतिक्रिया शामिल है, जिसमें नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन और अटॉर्नी जनरल एलायंस और इसका AI टास्क फोर्स शामिल है।
"जनरेटिव AI ऑनलाइन बाल यौन शोषण के अपराध को गहराई से परेशान करने वाले तरीकों से तेज कर रहा है-बाधाओं को कम करना, पैमाने को बढ़ाना और नुकसान के नए रूपों को सक्षम करना," नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन के अध्यक्ष और सीईओ, मिशेल डेलौने ने एक बयान में कहा। "लेकिन साथ ही, नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन OpenAI जैसी कंपनियों को यह देखकर प्रोत्साहित है कि इन उपकरणों को अधिक जिम्मेदारी से कैसे डिज़ाइन किया जा सकता है, शुरुआत से ही सुरक्षा उपायों के साथ।"
OpenAI ने कहा कि यह ढांचा AI मॉडल के भीतर कानूनी मानकों, उद्योग रिपोर्टिंग प्रणालियों और तकनीकी सुरक्षा उपायों को जोड़ता है। कंपनी ने कहा कि इन उपायों का उद्देश्य शोषण जोखिमों की पहले पहचान करने और ऑनलाइन प्लेटफार्मों में जवाबदेही में सुधार करने में मदद करना है।
ब्लूप्रिंट कार्रवाई के क्षेत्रों की पहचान करता है, जिसमें AI-जनित या परिवर्तित बाल यौन शोषण सामग्री को संबोधित करने के लिए कानूनों को अपडेट करना, ऑनलाइन प्रदाताओं द्वारा दुर्व्यवहार संकेतों की रिपोर्ट कैसे की जाती है और जांचकर्ताओं के साथ समन्वय में सुधार करना, और दुरुपयोग को रोकने के लिए डिज़ाइन किए गए AI सिस्टम में सुरक्षा उपाय बनाना शामिल है।
"कोई भी एकल हस्तक्षेप अकेले इस चुनौती को संबोधित नहीं कर सकता," कंपनी ने लिखा। "यह ढांचा जोखिमों की बेहतर पहचान करने, प्रतिक्रियाओं में तेजी लाने और जवाबदेही का समर्थन करने के लिए कानूनी, परिचालन और तकनीकी दृष्टिकोणों को एक साथ लाता है, यह सुनिश्चित करते हुए कि प्रवर्तन अधिकारी मजबूत बने रहें जैसे-जैसे प्रौद्योगिकी विकसित होती है।"
यह ब्लूप्रिंट ऐसे समय में आया है जब बाल सुरक्षा अधिवक्ताओं ने चिंता जताई है कि यथार्थवादी छवियां उत्पन्न करने में सक्षम जनरेटिव AI सिस्टम का उपयोग नाबालिगों के हेरफेर किए गए या सिंथेटिक चित्रण बनाने के लिए किया जा सकता है। फरवरी में, UNICEF ने विश्व सरकारों से AI-जनित बाल शोषण सामग्री को अपराध घोषित करने वाले कानून पारित करने का आह्वान किया।
जनवरी में, यूरोपीय आयोग ने एक औपचारिक जांच शुरू की कि क्या X, जिसे पहले Twitter के नाम से जाना जाता था, ने प्लेटफ़ॉर्म के मूल AI मॉडल, Grok को अवैध सामग्री उत्पन्न करने से रोकने में विफल रहकर EU डिजिटल नियमों का उल्लंघन किया, क्योंकि यूनाइटेड किंगडम और ऑस्ट्रेलिया में नियामकों ने भी जांच शुरू की है।
यह देखते हुए कि केवल कानून AI-जनित दुर्व्यवहार सामग्री की विपत्ति को नहीं रोक सकते, OpenAI ने कहा कि मजबूत उद्योग मानक आवश्यक होंगे क्योंकि AI सिस्टम अधिक सक्षम हो जाते हैं।
"शोषण के प्रयासों को जल्द ही बाधित करके, कानून प्रवर्तन को भेजे गए संकेतों की गुणवत्ता में सुधार करके, और पारिस्थितिकी तंत्र में जवाबदेही को मजबूत करके, यह ढांचा नुकसान होने से पहले इसे रोकने और जब जोखिम उभरते हैं तो बच्चों के लिए तेज़ सुरक्षा सुनिश्चित करने में मदद करने का लक्ष्य रखता है," OpenAI ने कहा।
डेली डीब्रीफ न्यूज़लेटर
हर दिन की शुरुआत अभी की शीर्ष समाचार कहानियों के साथ करें, साथ ही मूल फीचर्स, एक पॉडकास्ट, वीडियो और बहुत कुछ।
स्रोत: https://decrypt.co/363681/openai-child-safety-blueprint-ai-exploitation







