OpenAI ने 10 दिसंबर को एक चेतावनी जारी की जिसमें कहा गया कि उसके आगामी AI मॉडल गंभीर साइबर सुरक्षा जोखिम पैदा कर सकते हैं। ChatGPT के पीछे की कंपनी ने कहा कि ये उन्नत मॉडल अच्छी तरह से सुरक्षित सिस्टम को लक्षित करने वाले कार्यशील zero-day रिमोट एक्सप्लॉइट्स बना सकते हैं।
AI फर्म ने यह भी बताया कि ये मॉडल जटिल एंटरप्राइज या औद्योगिक घुसपैठ अभियानों में मदद कर सकते हैं जिनके वास्तविक दुनिया में परिणाम होते हैं। OpenAI ने अपनी तकनीक की बढ़ती क्षमताओं को संबोधित करते हुए एक ब्लॉग पोस्ट में यह जानकारी साझा की।
यह चेतावनी AI उद्योग में तेजी से शक्तिशाली होते मॉडलों के संभावित दुरुपयोग के बारे में चिंताओं को दर्शाती है। कई बड़ी टेक कंपनियों ने इसी तरह के खतरों से अपने AI सिस्टम को सुरक्षित करने के लिए कदम उठाए हैं।
Google ने इस सप्ताह Chrome ब्राउज़र सुरक्षा में अपडेट की घोषणा की ताकि AI एजेंटों पर अप्रत्यक्ष प्रॉम्प्ट इंजेक्शन अटैक को ब्लॉक किया जा सके। ये बदलाव Chrome में Gemini एजेंटिक फीचर्स के व्यापक रोलआउट से पहले आए।
Anthropic ने नवंबर 2025 में खुलासा किया कि खतरनाक एक्टर्स, जो संभवतः चीनी सरकार समर्थित समूह से जुड़े थे, ने AI-संचालित जासूसी अभियान के लिए उसके Claude Code टूल का उपयोग किया था। कंपनी ने नुकसान होने से पहले अभियान को रोक दिया।
OpenAI ने ऐसे डेटा साझा किए जो AI साइबर सुरक्षा क्षमताओं में तेजी से प्रगति दिखाते हैं। कंपनी के GPT-5.1-Codex-Max मॉडल ने नवंबर 2025 में कैप्चर-द-फ्लैग चैलेंज में 76% स्कोर किया।
यह अगस्त 2024 में GPT-5 द्वारा हासिल किए गए 27% स्कोर से एक बड़ी छलांग है। कैप्चर-द-फ्लैग चैलेंज यह मापते हैं कि सिस्टम सुरक्षा कमजोरियों को कितनी अच्छी तरह से खोज और उनका फायदा उठा सकते हैं।
कुछ ही महीनों में यह सुधार दिखाता है कि AI मॉडल कितनी तेजी से उन्नत साइबर सुरक्षा क्षमताएं हासिल कर रहे हैं। इन कौशलों का उपयोग रक्षात्मक और आक्रामक दोनों उद्देश्यों के लिए किया जा सकता है।
OpenAI ने कहा कि वह रक्षात्मक साइबर सुरक्षा कार्य के लिए मजबूत मॉडल बना रहा है। कंपनी ऐसे टूल विकसित कर रही है जो सुरक्षा टीमों को कोड का ऑडिट करने और कमजोरियों को आसानी से ठीक करने में मदद करेंगे।
Microsoft समर्थित फर्म एक्सेस कंट्रोल, इंफ्रास्ट्रक्चर हार्डनिंग, एग्रेस कंट्रोल और मॉनिटरिंग सिस्टम सहित कई सुरक्षा परतों का उपयोग कर रही है। OpenAI अपने AI मॉडल को हानिकारक अनुरोधों को अस्वीकार करने के लिए प्रशिक्षित कर रहा है, जबकि शिक्षा और रक्षा कार्य के लिए उपयोगी बने रहने की कोशिश कर रहा है।
कंपनी संभावित दुर्भावनापूर्ण साइबर गतिविधि को पकड़ने के लिए फ्रंटियर मॉडल का उपयोग करके सभी उत्पादों में निगरानी का विस्तार कर रही है। OpenAI अपने सुरक्षा सिस्टम का परीक्षण और सुधार करने के लिए विशेषज्ञ रेड टीमिंग समूहों के साथ साझेदारी कर रहा है।
OpenAI ने Aardvark पेश किया, एक AI एजेंट जो सुरक्षा शोधकर्ता के रूप में काम करता है। यह टूल निजी बीटा परीक्षण में है और कमजोरियों के लिए कोड स्कैन कर सकता है और पैच की सिफारिश कर सकता है।
मेंटेनर Aardvark द्वारा प्रस्तावित फिक्स को जल्दी से लागू कर सकते हैं। OpenAI चुनिंदा गैर-वाणिज्यिक ओपन सोर्स कोड रिपॉजिटरी के लिए Aardvark मुफ्त में प्रदान करने की योजना बना रहा है।
कंपनी योग्य साइबरडिफेंस उपयोगकर्ताओं और ग्राहकों को बेहतर क्षमताओं तक स्तरित पहुंच देने वाला एक प्रोग्राम लॉन्च करेगी। OpenAI फ्रंटियर रिस्क काउंसिल का गठन कर रहा है, जो बाहरी साइबर डिफेंडर और सुरक्षा विशेषज्ञों को अपनी आंतरिक टीमों के साथ काम करने के लिए ला रहा है।
परिषद अन्य फ्रंटियर क्षमता क्षेत्रों में विस्तार करने से पहले साइबर सुरक्षा पर ध्यान केंद्रित करके शुरू करेगी। OpenAI जल्द ही साइबरडिफेंस पर काम करने वाले उपयोगकर्ताओं और डेवलपर्स के लिए विश्वसनीय एक्सेस प्रोग्राम पर विवरण प्रदान करेगा।
पोस्ट OpenAI Warns Next-Generation AI Models Pose High Cybersecurity Risks सबसे पहले Blockonomi पर प्रकाशित हुई।

