एजेंटिक आर्टिफिशियल इंटेलिजेंस (AI) संगठनों के संचालन को बदलने का वादा करता है। दस्तावेज़ों को सारांशित करने या सामग्री उत्पन्न करने के लिए डिज़ाइन किए गए पुराने AI टूल्स के विपरीतएजेंटिक आर्टिफिशियल इंटेलिजेंस (AI) संगठनों के संचालन को बदलने का वादा करता है। दस्तावेज़ों को सारांशित करने या सामग्री उत्पन्न करने के लिए डिज़ाइन किए गए पुराने AI टूल्स के विपरीत

लॉरा आई. हार्डर: एजेंटिक AI के सुरक्षा जोखिमों के लिए बोर्ड्स को कैसे तैयार करें

2026/03/19 13:28
8 मिनट पढ़ें
इस कॉन्टेंट के संबंध में प्रतिक्रिया या चिंताओं के लिए, कृपया crypto.news@mexc.com पर हमसे संपर्क करें

एजेंटिक आर्टिफिशियल इंटेलिजेंस (AI) संगठनों के संचालन को बदलने का वादा करता है। दस्तावेज़ों को संक्षेप में बताने या सामग्री उत्पन्न करने के लिए डिज़ाइन किए गए पुराने AI टूल के विपरीत, ये सिस्टम स्वायत्त रूप से कार्य कर सकते हैं, कार्यों को निष्पादित कर सकते हैं और एंटरप्राइज़ सिस्टम के साथ इंटरैक्ट कर सकते हैं। प्रौद्योगिकी जोखिम की निगरानी करने वाले बोर्डों के लिए, यह बदलाव सुरक्षा चिंता की एक मूलभूत रूप से भिन्न श्रेणी का परिचय देता है। लॉरा आई. हार्डर, इंफॉर्मेशन सिस्टम्स सिक्योरिटी एसोसिएशन (ISSA) इंटरनेशनल की उपाध्यक्ष और यू.एस. एयर फोर्स रिज़र्व्स में एक आक्रामक साइबर अधिकारी, मानती हैं कि कई नेता इस बात को कम आंकते हैं कि ये जोखिम कितनी जल्दी साकार हो सकते हैं। "संगठनों के लिए जोखिम वास्तव में बहुत अधिक एजेंसी होने के कारण है," हार्डर कहती हैं। "एजेंट अनुमतियों को बदल सकते हैं, कार्यक्षमता को बदल सकते हैं और ऐसी कार्रवाइयां बना सकते हैं जिनकी आपको शायद उम्मीद नहीं थी।" जैसे-जैसे संगठन AI के साथ प्रयोग करने से स्वायत्त एजेंटों को संचालित करने की ओर बढ़ते हैं, बोर्डों को भी उतनी ही तेजी से शासन संरचनाओं, सुरक्षा उपायों और निगरानी तंत्र स्थापित करने के लिए आगे बढ़ना चाहिए जो ऐसे सिस्टम का प्रबंधन करने में सक्षम हों जो मानव हस्तक्षेप के बिना निर्णय ले सकते हैं और कार्रवाई कर सकते हैं।

एजेंटिक AI सुरक्षा समीकरण को बदलता है

पिछले कई वर्षों से, अधिकांश कॉर्पोरेट AI तैनाती उन टूल पर केंद्रित रही है जो जानकारी का विश्लेषण करते हैं या आउटपुट उत्पन्न करते हैं। उन क्षमताओं ने गोपनीयता और डेटा अखंडता की चिंताओं को पेश किया, लेकिन सिस्टम स्वयं शायद ही कभी एंटरप्राइज़ वातावरण के भीतर कार्रवाई करते थे। एजेंटिक AI इस गतिशीलता को बदलता है। केवल सिफारिशें देने या रिज्यूमे फ़िल्टर करने के बजाय, एजेंट वर्कफ़्लो को ट्रिगर कर सकते हैं, डेटाबेस तक पहुंच सकते हैं और किसी संगठन में सॉफ़्टवेयर सिस्टम के साथ इंटरैक्ट कर सकते हैं। "यह अब केवल हमें सलाह नहीं दे रहा है। यह कार्रवाई कर रहा है और अपने आप कार्य करता है," हार्डर कहती हैं।

Laura I. Harder: How to Prepare Boards for the Security Risks of Agentic AI

वह स्वायत्तता नई सुरक्षा चुनौतियां पैदा करती है क्योंकि सिस्टम में हेरफेर किया जा सकता है। जैसे मनुष्य सोशल इंजीनियरिंग के लिए गिर सकते हैं, वैसे ही AI एजेंटों को प्रॉम्प्ट इंजेक्शन जैसी तकनीकों के माध्यम से अनपेक्षित कार्यों को निष्पादित करने के लिए धोखा दिया जा सकता है। हार्डर वास्तविक दुनिया के उदाहरणों की ओर इशारा करती हैं जहां इनपुट में एम्बेडेड छिपे हुए निर्देश AI के व्यवहार को बदल देते हैं। "AI उन निर्देशों के आधार पर व्यवहार करने जा रहा है जो इसे दिए गए हैं," वह कहती हैं। ये खतरे कई AI मॉडल की अपारदर्शी प्रकृति से और बढ़ जाते हैं। संगठन अक्सर तीसरे पक्ष के टूल पर भरोसा करते हैं बिना इस बात की पूरी दृश्यता के कि निर्णय कैसे लिए जाते हैं। परिणाम एक ऐसा सिस्टम है जो कार्रवाई करने में सक्षम है जबकि ऐसे तरीकों से संचालित होता है जिनका अनुमान लगाना मुश्किल है।

वह छिपा हुआ जोखिम जिसे बोर्ड अक्सर नज़रअंदाज़ करते हैं

जब बोर्ड एजेंटिक AI का मूल्यांकन करना शुरू करते हैं, तो हार्डर कहती हैं कि सबसे कम आंकी गई कमजोरी अनुमतियां हैं। प्रत्येक AI एजेंट सिस्टम, डेटा स्रोतों और एप्लिकेशन के नेटवर्क के भीतर संचालित होता है। उन सिस्टम को दी गई पहुंच का स्तर संभावित नुकसान को निर्धारित करता है यदि कुछ गलत हो जाता है। हार्डर इसे सिस्टम की "ब्लास्ट रेडियस" के रूप में वर्णित करती हैं। एक एजेंट जिसे व्यापक अनुमतियां दी गई हैं, वह नेताओं की तुलना में कहीं अधिक डेटा और बुनियादी ढांचे के साथ इंटरैक्ट करने में सक्षम हो सकता है।

एक सामान्य उदाहरण तब होता है जब AI सिस्टम आंतरिक सहयोग टूल या दस्तावेज़ रिपॉजिटरी से जुड़े होते हैं। यदि व्यापक रूप से साझा किए गए फ़ोल्डर में संवेदनशील जानकारी है, तो उस वातावरण में संचालित होने वाला एक एजेंट उपयोगकर्ता, सेवा खाते, या इंटीग्रेशन को दी गई अनुमतियों के भीतर उस डेटा को एक्सेस और उपयोग करने में सक्षम होगा जिसके तहत यह चलता है। व्यवहार में, इसका मतलब है कि एजेंट ऐसी जानकारी को सतह पर ला सकता है या उस पर कार्य कर सकता है जो व्यापक रूप से सुलभ हो सकती थी लेकिन सक्रिय रूप से निगरानी नहीं की गई थी।

तीसरे पक्ष की AI सेवाएं जोखिम की एक अतिरिक्त परत पेश करती हैं। "यदि आप किसी मॉडल का उपयोग कर रहे हैं, तो उस मॉडल को किस जानकारी तक पहुंच है, और क्या आपकी जानकारी का उपयोग उस मॉडल को प्रशिक्षित करने के लिए किया जा सकता है?" हार्डर पूछती हैं। स्पष्ट नियंत्रण के बिना, स्वामित्व वाली जानकारी, बौद्धिक संपदा या संवेदनशील ग्राहक डेटा अनजाने में AI इंटरैक्शन के माध्यम से संगठन को छोड़ सकता है।

शासन का निर्माण जो AI के साथ बना रह सके

AI शासन को एक प्रौद्योगिकी ऐड-ऑन के बजाय एक संरचित कार्यक्रम के रूप में माना जाना चाहिए। संगठनों को एक समर्पित AI शासन बोर्ड स्थापित करके शुरू करना चाहिए, जो अक्सर मौजूदा गोपनीयता या जोखिम शासन समितियों के बाद मॉडल किया जाता है। उस समूह को NIST AI रिस्क मैनेजमेंट फ्रेमवर्क या ISO 42001 जैसे अंतर्राष्ट्रीय मानकों जैसे स्थापित ढांचे को अपनाना चाहिए। "AI शासन और AI सुरक्षा होना केवल एक उत्पाद नहीं है जिसे आप खरीद सकते हैं," वह कहती हैं।

ये ढांचे नीतियों, जोखिम मूल्यांकन और परिचालन नियंत्रण पर मार्गदर्शन प्रदान करते हैं। लेकिन वे अभी भी संगठनों को यह परिभाषित करने की आवश्यकता रखते हैं कि AI उनके वातावरण में कैसे कार्य करेगा और किस डेटा तक इसे पहुंच की अनुमति दी जाएगी। "आपको नीतियों, प्रक्रियाओं और सूचियों की आवश्यकता है," हार्डर कहती हैं। "वे टुकड़े उस बुनियादी ढांचे को बनाने में मदद करेंगे जिससे आपकी टीमें काम कर सकती हैं।" एक उभरती हुई प्रथा "AI बिल ऑफ मटेरियल्स" का निर्माण है जो संगठन के अंदर उपयोग किए जाने वाले प्रत्येक AI टूल, यह किन सिस्टम से जुड़ता है और यह किस डेटा तक पहुंच सकता है, की सूची बनाता है। उस दृश्यता के बिना, संगठन एंटरप्राइज़ बुनियादी ढांचे के साथ इंटरैक्ट करने वाले स्वायत्त सिस्टम द्वारा बनाए गए एक्सपोज़र को पूरी तरह से नहीं समझ सकते हैं।

सुरक्षा उपाय जो AI को भटकने से रोकते हैं

शासन संरचनाओं के होने के बाद भी, एजेंटिक सिस्टम को तकनीकी सुरक्षा उपायों की आवश्यकता होती है जो उनके संचालन को सीमित करते हैं। सबसे प्रभावी रणनीति शुरुआत से सुरक्षा नियंत्रणों को डिजाइन करना है। सिस्टम को शुरू में बंद, नियंत्रित सैंडबॉक्स वातावरण के अंदर परीक्षण डेटा (उत्पादन डेटा नहीं) और सीमित विशेषाधिकारों का उपयोग करके विकसित किया जाना चाहिए। "जैसे आप अपने एजेंटिक सिस्टम का निर्माण कर रहे हैं, आपको इसे सैंडबॉक्स में करना चाहिए," वह कहती हैं। "यह एक नियंत्रित वातावरण है जहां सिंथेटिक सिस्टम कम जोखिम और बिना किसी विशेषाधिकार के संचालित हो सकते हैं।"

परीक्षण में रेड टीमिंग भी शामिल होनी चाहिए, जहां सुरक्षा पेशेवर सिस्टम को तोड़ने या इसके व्यवहार में हेरफेर करने का प्रयास करते हैं। ये अभ्यास सिस्टम को उत्पादन वातावरण में तैनात करने से पहले कमजोरियों को उजागर करते हैं। "लूप में एक मानव होने से यह सुनिश्चित होता है कि यदि और जब आपका AI टूल ऐसा निर्णय लेने का फैसला करता है जो शायद आप नहीं चाहते थे, तो किसी प्रकार का प्रतिबंध है," हार्डर कहती हैं। अलगाव तकनीक भी जोखिम को सीमित कर सकती है। कुछ आर्किटेक्चर में, एजेंटों को वर्चुअल मशीनों के अंदर रखा जाता है जहां नीतियां प्रतिबंधित करती हैं कि वे कौन से कमांड निष्पादित कर सकते हैं और वे किन सिस्टम तक पहुंच सकते हैं।

बोर्ड निगरानी अंततः मायने रखती है

बोर्डों के लिए, एजेंटिक AI का उदय एक शासन और जवाबदेही चुनौती है और हार्डर इस बात पर जोर देती हैं कि संगठन अपने AI सिस्टम द्वारा की गई कार्रवाइयों के लिए जिम्मेदार रहते हैं। "आप वापस जाकर यह नहीं कह सकते, 'मुझे नहीं पता था कि यह ऐसा कर सकता है,'" वह कहती हैं। "आपको अपना उचित परिश्रम करना होगा।" वह जिम्मेदारी कानूनी और प्रत्ययी दोनों निहितार्थ रखती है। बोर्डों को यह सुनिश्चित करना चाहिए कि स्वायत्त प्रौद्योगिकियों को स्पष्ट निगरानी, प्रतिबंधित अधिकार और निरंतर निगरानी के साथ लागू किया जाता है। "एजेंटों को विशेषाधिकार प्राप्त टूल से तब तक कनेक्ट न करें जब तक आप यह साबित नहीं कर सकते कि इसमें प्रतिबंधित अधिकार, मानव चेकपॉइंट और निगरानी है," हार्डर कहती हैं। जैसे-जैसे एजेंटिक AI प्रयोग से मुख्य संचालन में आगे बढ़ना जारी रखता है, जो संगठन सफल होंगे वे वे होंगे जो शासन और सुरक्षा को बाद के विचार के बजाय मूलभूत आवश्यकताओं के रूप में मानते हैं।

अधिक जानकारी के लिए LinkedIn पर लॉरा आई. हार्डर को फ़ॉलो करें।

टिप्पणियाँ
अस्वीकरण: इस साइट पर बाहर से पोस्ट किए गए लेख, सार्वजनिक प्लेटफार्म से लिए गए हैं और केवल सूचना देने के उद्देश्यों के लिए उपलब्ध कराए गए हैं. वे निश्चित तौर पर MEXC के विचारों को नहीं दिखाते. सभी संबंधित अधिकार मूल लेखकों के पास ही हैं. अगर आपको लगता है कि कोई कॉन्टेंट तीसरे पक्ष के अधिकारों का उल्लंघन करता है, तो कृपया उसे हटाने के लिए crypto.news@mexc.com से संपर्क करें. MEXC किसी कॉन्टेंट की सटीकता, पूर्णता या समयबद्धता के संबंध में कोई गारंटी नहीं देता है और प्रदान की गई जानकारी के आधार पर की गई किसी भी कार्रवाई के लिए जिम्मेदार नहीं है. यह कॉन्टेंट वित्तीय, कानूनी या अन्य प्रोफ़ेशनल सलाह नहीं है, न ही इसे MEXC द्वारा अनुशंसा या समर्थन माना जाना चाहिए.

आपको यह भी पसंद आ सकता है

फ्लो ट्रेडर्स ने 24/7 ओवर-द-काउंटर ट्रेडिंग प्लेटफॉर्म के माध्यम से टोकनाइज्ड एसेट्स में विस्तार किया।

फ्लो ट्रेडर्स ने 24/7 ओवर-द-काउंटर ट्रेडिंग प्लेटफॉर्म के माध्यम से टोकनाइज्ड एसेट्स में विस्तार किया।

PANews ने 19 मार्च को रिपोर्ट किया कि, The Block के अनुसार, क्रिप्टोकरेंसी मार्केट मेकर Flow Traders ने अपने 24/7 OTC ट्रेडिंग प्लेटफॉर्म को टोकनाइज्ड को शामिल करने के लिए विस्तारित किया है
शेयर करें
PANews2026/03/19 14:32
बिटकॉइन OGs ने हॉकिश फेड द्वारा ब्याज दर कटौती की उम्मीदों को कम करने के बाद $100 मिलियन से अधिक BTC बेचा

बिटकॉइन OGs ने हॉकिश फेड द्वारा ब्याज दर कटौती की उम्मीदों को कम करने के बाद $100 मिलियन से अधिक BTC बेचा

बिटकॉइन BTC$70,565.84 के सबसे बड़े शुरुआती धारक, जिन्हें अक्सर ओरिजिनल गैंगस्टर्स कहा जाता है, फेडरल रिजर्व द्वारा उम्मीदों को हिला देने के बाद सेल बटन दबा रहे हैं
शेयर करें
Coindesk2026/03/19 15:19
ईरान-अमेरिका भू-राजनीतिक तनाव के बीच क्रिप्टो ETF परिसंपत्तियों में $12B की वृद्धि

ईरान-अमेरिका भू-राजनीतिक तनाव के बीच क्रिप्टो ETF परिसंपत्तियों में $12B की वृद्धि

क्रिप्टो-लिंक्ड एक्सचेंज-ट्रेडेड फंड्स (ETFs) ने अपनी तेजी की गति वापस हासिल कर ली है जबकि डिजिटल एसेट्स मार्केट अभी भी अनिश्चितता से जूझ रहा है।
शेयर करें
Cryptopolitan2026/03/19 15:20