एजेंटिक आर्टिफिशियल इंटेलिजेंस (AI) संगठनों के संचालन को बदलने का वादा करता है। दस्तावेज़ों को संक्षेप में बताने या सामग्री उत्पन्न करने के लिए डिज़ाइन किए गए पुराने AI टूल के विपरीत, ये सिस्टम स्वायत्त रूप से कार्य कर सकते हैं, कार्यों को निष्पादित कर सकते हैं और एंटरप्राइज़ सिस्टम के साथ इंटरैक्ट कर सकते हैं। प्रौद्योगिकी जोखिम की निगरानी करने वाले बोर्डों के लिए, यह बदलाव सुरक्षा चिंता की एक मूलभूत रूप से भिन्न श्रेणी का परिचय देता है। लॉरा आई. हार्डर, इंफॉर्मेशन सिस्टम्स सिक्योरिटी एसोसिएशन (ISSA) इंटरनेशनल की उपाध्यक्ष और यू.एस. एयर फोर्स रिज़र्व्स में एक आक्रामक साइबर अधिकारी, मानती हैं कि कई नेता इस बात को कम आंकते हैं कि ये जोखिम कितनी जल्दी साकार हो सकते हैं। "संगठनों के लिए जोखिम वास्तव में बहुत अधिक एजेंसी होने के कारण है," हार्डर कहती हैं। "एजेंट अनुमतियों को बदल सकते हैं, कार्यक्षमता को बदल सकते हैं और ऐसी कार्रवाइयां बना सकते हैं जिनकी आपको शायद उम्मीद नहीं थी।" जैसे-जैसे संगठन AI के साथ प्रयोग करने से स्वायत्त एजेंटों को संचालित करने की ओर बढ़ते हैं, बोर्डों को भी उतनी ही तेजी से शासन संरचनाओं, सुरक्षा उपायों और निगरानी तंत्र स्थापित करने के लिए आगे बढ़ना चाहिए जो ऐसे सिस्टम का प्रबंधन करने में सक्षम हों जो मानव हस्तक्षेप के बिना निर्णय ले सकते हैं और कार्रवाई कर सकते हैं।
एजेंटिक AI सुरक्षा समीकरण को बदलता है
पिछले कई वर्षों से, अधिकांश कॉर्पोरेट AI तैनाती उन टूल पर केंद्रित रही है जो जानकारी का विश्लेषण करते हैं या आउटपुट उत्पन्न करते हैं। उन क्षमताओं ने गोपनीयता और डेटा अखंडता की चिंताओं को पेश किया, लेकिन सिस्टम स्वयं शायद ही कभी एंटरप्राइज़ वातावरण के भीतर कार्रवाई करते थे। एजेंटिक AI इस गतिशीलता को बदलता है। केवल सिफारिशें देने या रिज्यूमे फ़िल्टर करने के बजाय, एजेंट वर्कफ़्लो को ट्रिगर कर सकते हैं, डेटाबेस तक पहुंच सकते हैं और किसी संगठन में सॉफ़्टवेयर सिस्टम के साथ इंटरैक्ट कर सकते हैं। "यह अब केवल हमें सलाह नहीं दे रहा है। यह कार्रवाई कर रहा है और अपने आप कार्य करता है," हार्डर कहती हैं।

वह स्वायत्तता नई सुरक्षा चुनौतियां पैदा करती है क्योंकि सिस्टम में हेरफेर किया जा सकता है। जैसे मनुष्य सोशल इंजीनियरिंग के लिए गिर सकते हैं, वैसे ही AI एजेंटों को प्रॉम्प्ट इंजेक्शन जैसी तकनीकों के माध्यम से अनपेक्षित कार्यों को निष्पादित करने के लिए धोखा दिया जा सकता है। हार्डर वास्तविक दुनिया के उदाहरणों की ओर इशारा करती हैं जहां इनपुट में एम्बेडेड छिपे हुए निर्देश AI के व्यवहार को बदल देते हैं। "AI उन निर्देशों के आधार पर व्यवहार करने जा रहा है जो इसे दिए गए हैं," वह कहती हैं। ये खतरे कई AI मॉडल की अपारदर्शी प्रकृति से और बढ़ जाते हैं। संगठन अक्सर तीसरे पक्ष के टूल पर भरोसा करते हैं बिना इस बात की पूरी दृश्यता के कि निर्णय कैसे लिए जाते हैं। परिणाम एक ऐसा सिस्टम है जो कार्रवाई करने में सक्षम है जबकि ऐसे तरीकों से संचालित होता है जिनका अनुमान लगाना मुश्किल है।
वह छिपा हुआ जोखिम जिसे बोर्ड अक्सर नज़रअंदाज़ करते हैं
जब बोर्ड एजेंटिक AI का मूल्यांकन करना शुरू करते हैं, तो हार्डर कहती हैं कि सबसे कम आंकी गई कमजोरी अनुमतियां हैं। प्रत्येक AI एजेंट सिस्टम, डेटा स्रोतों और एप्लिकेशन के नेटवर्क के भीतर संचालित होता है। उन सिस्टम को दी गई पहुंच का स्तर संभावित नुकसान को निर्धारित करता है यदि कुछ गलत हो जाता है। हार्डर इसे सिस्टम की "ब्लास्ट रेडियस" के रूप में वर्णित करती हैं। एक एजेंट जिसे व्यापक अनुमतियां दी गई हैं, वह नेताओं की तुलना में कहीं अधिक डेटा और बुनियादी ढांचे के साथ इंटरैक्ट करने में सक्षम हो सकता है।
एक सामान्य उदाहरण तब होता है जब AI सिस्टम आंतरिक सहयोग टूल या दस्तावेज़ रिपॉजिटरी से जुड़े होते हैं। यदि व्यापक रूप से साझा किए गए फ़ोल्डर में संवेदनशील जानकारी है, तो उस वातावरण में संचालित होने वाला एक एजेंट उपयोगकर्ता, सेवा खाते, या इंटीग्रेशन को दी गई अनुमतियों के भीतर उस डेटा को एक्सेस और उपयोग करने में सक्षम होगा जिसके तहत यह चलता है। व्यवहार में, इसका मतलब है कि एजेंट ऐसी जानकारी को सतह पर ला सकता है या उस पर कार्य कर सकता है जो व्यापक रूप से सुलभ हो सकती थी लेकिन सक्रिय रूप से निगरानी नहीं की गई थी।
तीसरे पक्ष की AI सेवाएं जोखिम की एक अतिरिक्त परत पेश करती हैं। "यदि आप किसी मॉडल का उपयोग कर रहे हैं, तो उस मॉडल को किस जानकारी तक पहुंच है, और क्या आपकी जानकारी का उपयोग उस मॉडल को प्रशिक्षित करने के लिए किया जा सकता है?" हार्डर पूछती हैं। स्पष्ट नियंत्रण के बिना, स्वामित्व वाली जानकारी, बौद्धिक संपदा या संवेदनशील ग्राहक डेटा अनजाने में AI इंटरैक्शन के माध्यम से संगठन को छोड़ सकता है।
शासन का निर्माण जो AI के साथ बना रह सके
AI शासन को एक प्रौद्योगिकी ऐड-ऑन के बजाय एक संरचित कार्यक्रम के रूप में माना जाना चाहिए। संगठनों को एक समर्पित AI शासन बोर्ड स्थापित करके शुरू करना चाहिए, जो अक्सर मौजूदा गोपनीयता या जोखिम शासन समितियों के बाद मॉडल किया जाता है। उस समूह को NIST AI रिस्क मैनेजमेंट फ्रेमवर्क या ISO 42001 जैसे अंतर्राष्ट्रीय मानकों जैसे स्थापित ढांचे को अपनाना चाहिए। "AI शासन और AI सुरक्षा होना केवल एक उत्पाद नहीं है जिसे आप खरीद सकते हैं," वह कहती हैं।
ये ढांचे नीतियों, जोखिम मूल्यांकन और परिचालन नियंत्रण पर मार्गदर्शन प्रदान करते हैं। लेकिन वे अभी भी संगठनों को यह परिभाषित करने की आवश्यकता रखते हैं कि AI उनके वातावरण में कैसे कार्य करेगा और किस डेटा तक इसे पहुंच की अनुमति दी जाएगी। "आपको नीतियों, प्रक्रियाओं और सूचियों की आवश्यकता है," हार्डर कहती हैं। "वे टुकड़े उस बुनियादी ढांचे को बनाने में मदद करेंगे जिससे आपकी टीमें काम कर सकती हैं।" एक उभरती हुई प्रथा "AI बिल ऑफ मटेरियल्स" का निर्माण है जो संगठन के अंदर उपयोग किए जाने वाले प्रत्येक AI टूल, यह किन सिस्टम से जुड़ता है और यह किस डेटा तक पहुंच सकता है, की सूची बनाता है। उस दृश्यता के बिना, संगठन एंटरप्राइज़ बुनियादी ढांचे के साथ इंटरैक्ट करने वाले स्वायत्त सिस्टम द्वारा बनाए गए एक्सपोज़र को पूरी तरह से नहीं समझ सकते हैं।
सुरक्षा उपाय जो AI को भटकने से रोकते हैं
शासन संरचनाओं के होने के बाद भी, एजेंटिक सिस्टम को तकनीकी सुरक्षा उपायों की आवश्यकता होती है जो उनके संचालन को सीमित करते हैं। सबसे प्रभावी रणनीति शुरुआत से सुरक्षा नियंत्रणों को डिजाइन करना है। सिस्टम को शुरू में बंद, नियंत्रित सैंडबॉक्स वातावरण के अंदर परीक्षण डेटा (उत्पादन डेटा नहीं) और सीमित विशेषाधिकारों का उपयोग करके विकसित किया जाना चाहिए। "जैसे आप अपने एजेंटिक सिस्टम का निर्माण कर रहे हैं, आपको इसे सैंडबॉक्स में करना चाहिए," वह कहती हैं। "यह एक नियंत्रित वातावरण है जहां सिंथेटिक सिस्टम कम जोखिम और बिना किसी विशेषाधिकार के संचालित हो सकते हैं।"
परीक्षण में रेड टीमिंग भी शामिल होनी चाहिए, जहां सुरक्षा पेशेवर सिस्टम को तोड़ने या इसके व्यवहार में हेरफेर करने का प्रयास करते हैं। ये अभ्यास सिस्टम को उत्पादन वातावरण में तैनात करने से पहले कमजोरियों को उजागर करते हैं। "लूप में एक मानव होने से यह सुनिश्चित होता है कि यदि और जब आपका AI टूल ऐसा निर्णय लेने का फैसला करता है जो शायद आप नहीं चाहते थे, तो किसी प्रकार का प्रतिबंध है," हार्डर कहती हैं। अलगाव तकनीक भी जोखिम को सीमित कर सकती है। कुछ आर्किटेक्चर में, एजेंटों को वर्चुअल मशीनों के अंदर रखा जाता है जहां नीतियां प्रतिबंधित करती हैं कि वे कौन से कमांड निष्पादित कर सकते हैं और वे किन सिस्टम तक पहुंच सकते हैं।
बोर्ड निगरानी अंततः मायने रखती है
बोर्डों के लिए, एजेंटिक AI का उदय एक शासन और जवाबदेही चुनौती है और हार्डर इस बात पर जोर देती हैं कि संगठन अपने AI सिस्टम द्वारा की गई कार्रवाइयों के लिए जिम्मेदार रहते हैं। "आप वापस जाकर यह नहीं कह सकते, 'मुझे नहीं पता था कि यह ऐसा कर सकता है,'" वह कहती हैं। "आपको अपना उचित परिश्रम करना होगा।" वह जिम्मेदारी कानूनी और प्रत्ययी दोनों निहितार्थ रखती है। बोर्डों को यह सुनिश्चित करना चाहिए कि स्वायत्त प्रौद्योगिकियों को स्पष्ट निगरानी, प्रतिबंधित अधिकार और निरंतर निगरानी के साथ लागू किया जाता है। "एजेंटों को विशेषाधिकार प्राप्त टूल से तब तक कनेक्ट न करें जब तक आप यह साबित नहीं कर सकते कि इसमें प्रतिबंधित अधिकार, मानव चेकपॉइंट और निगरानी है," हार्डर कहती हैं। जैसे-जैसे एजेंटिक AI प्रयोग से मुख्य संचालन में आगे बढ़ना जारी रखता है, जो संगठन सफल होंगे वे वे होंगे जो शासन और सुरक्षा को बाद के विचार के बजाय मूलभूत आवश्यकताओं के रूप में मानते हैं।
अधिक जानकारी के लिए LinkedIn पर लॉरा आई. हार्डर को फ़ॉलो करें।




