AI सुरक्षा प्रथाओं की जांच की जा रही है, openai school shooting मामले के बाद जिसमें एक कनाडाई संदिग्ध शामिल था, जिसकी ऑनलाइन गतिविधि हमले से महीनों पहले फ्लैग की गई थी।
ChatGPT-निर्माता OpenAI ने खुलासा किया कि उसने जून 2025 में Jesse Van Rootselaar के खाते की पहचान अपने दुरुपयोग पहचान सिस्टम के माध्यम से "हिंसक गतिविधियों को बढ़ावा देने" के लिए की थी। हालांकि, सैन फ्रांसिस्को स्थित तकनीकी कंपनी ने उस समय यह निष्कर्ष निकाला कि गतिविधि कानून प्रवर्तन को रेफरल के लिए इसकी आंतरिक सीमा को पूरा नहीं करती थी।
कंपनी ने कहा कि उसने विशेष रूप से विचार किया कि खाते के बारे में रॉयल कैनेडियन माउंटेड पुलिस (RCMP) को सूचित किया जाए या नहीं। इसके अलावा, उसने आगे न बढ़ने का फैसला किया, यह मानते हुए कि संकेत गंभीर शारीरिक नुकसान पहुंचाने की आसन्न और विश्वसनीय योजना का संकेत नहीं देते थे।
OpenAI ने बाद में जून 2025 में अपनी उपयोग नीति का उल्लंघन करने के लिए खाते पर प्रतिबंध लगा दिया। यह निर्णय उस त्रासदी से महीनों पहले आया था जो बाद में ब्रिटिश कोलंबिया के दूरदराज हिस्से में सामने आई।
18 वर्षीय संदिग्ध ने बाद में छोटे शहर Tumbler Ridge में स्कूल पर हमला किया, आठ लोगों की हत्या की, फिर स्व-प्रेरित बंदूक की गोली के घाव से मर गया। पिछले सप्ताह रिपोर्ट की गई यह घटना कनाडा के इतिहास में सबसे खराब स्कूल गोलीबारी में से एक है और इसने इस बहस को तेज कर दिया है कि तकनीकी कंपनियां उच्च-जोखिम वाले उपयोगकर्ता व्यवहार को कैसे संभालती हैं।
RCMP के अनुसार, Van Rootselaar ने पहले पारिवारिक घर में अपनी मां और सौतेले भाई की हत्या की, फिर पास के स्कूल को निशाना बनाया। इसके अलावा, पुलिस ने कहा कि शूटर का मानसिक स्वास्थ्य संबंधी कानून प्रवर्तन के साथ संपर्क का पूर्व इतिहास था, हालांकि उन बातचीत की विशिष्ट प्रकृति विस्तृत नहीं की गई थी।
पुलिस ने रिपोर्ट किया कि पीड़ितों में एक 39 वर्षीय शिक्षण सहायक और 12 से 13 वर्ष की आयु के पांच छात्र शामिल थे। यह शहर, कैनेडियन रॉकीज़ में लगभग 2,700 लोगों का घर, वैंकूवर के उत्तर-पूर्व में 1,000 किमी (600 मील) से अधिक दूर स्थित है, अल्बर्टा की सीमा के पास।
पहले अधिकारियों से संपर्क न करने के अपने निर्णय की व्याख्या करते हुए, OpenAI ने कहा कि कानून प्रवर्तन से संपर्क करने का इसका मानक इस बात पर केंद्रित है कि क्या किसी मामले में दूसरों को गंभीर शारीरिक नुकसान पहुंचाने का आसन्न और विश्वसनीय जोखिम शामिल है। कंपनी ने कहा, उस समय, उसने ऐसी कोई ठोस या आसन्न योजना की पहचान नहीं की जो ऐसे रेफरल को ट्रिगर करती।
कंपनी ने नोट किया कि यह रेफरल सीमा उपयोगकर्ता गोपनीयता को सुरक्षा दायित्वों के साथ संतुलित करने के लिए है। हालांकि, इस खुलासे ने नए सवाल खड़े किए हैं कि क्या वृद्धि के लिए मौजूदा मानदंड पर्याप्त हैं जब ChatGPT जैसे AI उपकरणों के साथ उपयोगकर्ता बातचीत में प्रारंभिक चेतावनी संकेत उभरते हैं।
स्कूल गोलीबारी की खबर टूटने के बाद, OpenAI के कर्मचारियों ने Van Rootselaar और खाते से जुड़ी ऐतिहासिक गतिविधि के विवरण के साथ RCMP से संपर्क किया। वॉल स्ट्रीट जर्नल कंपनी के आंतरिक विचार-विमर्श और बाद की पहुंच पर रिपोर्ट करने वाला पहला था।
एक सार्वजनिक बयान में, एक OpenAI प्रवक्ता ने कहा: "Tumbler Ridge त्रासदी से प्रभावित सभी लोगों के साथ हमारे विचार हैं। हमने सक्रिय रूप से रॉयल कैनेडियन माउंटेड पुलिस से व्यक्ति और ChatGPT के उनके उपयोग के बारे में जानकारी के साथ संपर्क किया, और हम उनकी जांच का समर्थन करना जारी रखेंगे।" इसके अलावा, कंपनी ने कनाडाई अधिकारियों के साथ अपने चल रहे सहयोग पर जोर दिया।
उस ने कहा, गोलीबारी का मकसद अस्पष्ट बना हुआ है, और जांचकर्ताओं ने अभी तक यह खुलासा नहीं किया है कि ChatGPT के साथ संदिग्ध की बातचीत और अंतिम हमले के बीच कोई सीधा संबंध है या नहीं। फिर भी मामले ने इस पर वैश्विक ध्यान केंद्रित किया है कि AI प्लेटफॉर्म संभावित खतरों का पता कैसे लगाते हैं, मूल्यांकन करते हैं और प्रतिक्रिया देते हैं।
अधिकारियों ने Tumbler Ridge हमले को 2020 के बाद से कनाडा के ऐसे सबसे घातक उन्माद के रूप में वर्णित किया, जब नोवा स्कोटिया में एक बंदूकधारी ने 13 लोगों को मार डाला और आग लगा दी जिससे नौ अन्य लोगों की मौत हो गई। हालांकि, हाल की घटना का एक अतिरिक्त आयाम है क्योंकि यह AI प्रदाताओं की विकसित जिम्मेदारियों के साथ प्रतिच्छेद करती है।
जैसे ही नीति निर्माता और कानून प्रवर्तन परिस्थितियों की समीक्षा करते हैं, openai school shooting प्रकरण इस बहस को बढ़ावा देने की संभावना है कि AI कंपनियों को कब और कैसे अधिकारियों के लिए चिंताजनक उपयोगकर्ता व्यवहार को बढ़ाना चाहिए, और क्या मौजूदा रेफरल मानक उभरते डिजिटल जोखिमों को पर्याप्त रूप से संबोधित करते हैं।
संक्षेप में, ब्रिटिश कोलंबिया में त्रासदी गोपनीयता, जोखिम मूल्यांकन और सार्वजनिक सुरक्षा के बीच जटिल संतुलन को रेखांकित करती है क्योंकि AI प्लेटफॉर्म रोजमर्रा की जिंदगी में गहराई से एम्बेडेड हो जाते हैं, जो नियामकों और प्रौद्योगिकी फर्मों दोनों को संभावित खतरों को संभालने के लिए अपने प्रोटोकॉल का पुनर्मूल्यांकन करने के लिए मजबूर करते हैं।

