बस कुछ ही वर्षों में, AI रोजमर्रा के व्यावसायिक संचालन में समाहित हो गया है, कई कंपनियां प्रक्रियाओं को स्वचालित करने और AI-संचालित सिस्टम पर निर्भर होने के लिए तेजी से आगे बढ़ रही हैं। लेकिन Georg Meyer, एक रणनीतिकार और सिस्टम विशेषज्ञ के अनुसार, गति और सुविधा की एक कीमत हो सकती है, खासकर जब व्यवसाय अपने सबसे महत्वपूर्ण सिस्टम के वास्तविक कार्य में दृश्यता खो देते हैं।
Meyer चेतावनी देते हैं कि सबसे बड़े जोखिमों में से एक समझ की झूठी भावना है। "कंपनियां सोच सकती हैं कि वे जानती हैं कि क्या हो रहा है क्योंकि उन्होंने प्रॉम्प्ट दिए हैं," वे बताते हैं, "लेकिन उन्हें वास्तव में यह दृश्यता नहीं होती कि बॉक्स के अंदर क्या होता है।"

आधुनिक AI सिस्टम, विशेष रूप से बड़े भाषा मॉडल, शक्तिशाली हैं लेकिन पूरी तरह से निरीक्षण करना मुश्किल है। उनकी आंतरिक प्रक्रियाएं हमेशा पारदर्शी नहीं होती हैं, और उनके आउटपुट अंतर्निहित यादृच्छिकता के कारण भिन्न हो सकते हैं। यह स्थिरता और विश्वसनीयता के आसपास चुनौतियां पैदा करता है, खासकर जब AI का उपयोग मुख्य व्यावसायिक कार्यों में किया जाता है। "पुनरुत्पादन क्षमता और विश्वसनीयता के लिए छिपे हुए जोखिम हैं," Meyer कहते हैं, "जो विनाशकारी हो सकते हैं जब वे कंपनी के दिल को प्रभावित करते हैं।"
Meyer के लिए, समाधान AI से बचना नहीं है, बल्कि यह सुनिश्चित करना है कि मानव समझ केंद्रीय बनी रहे। व्यवसायों को अभी भी ऐसे लोगों की आवश्यकता है जो जानते हैं कि सिस्टम कैसे काम करते हैं, भले ही वे सिस्टम AI द्वारा समर्थित हों।
अल्पकालिक लाभ, दीर्घकालिक जोखिम
एक और चिंता जो Meyer उजागर करते हैं वह संगठनों के भीतर विशेषज्ञता पर AI का दीर्घकालिक प्रभाव है। जबकि AI नाटकीय रूप से कार्यप्रवाह को तेज कर सकता है और ज्ञान को कार्रवाई में बदलने में मदद कर सकता है, इस पर अत्यधिक निर्भरता अनपेक्षित परिणामों के साथ आ सकती है।
"अत्यधिक और कम निर्भरता दोनों जोखिम भरी हो सकती हैं," Meyer कहते हैं। "AI विशेषज्ञता को लागू करने में लगने वाले समय को कम कर सकता है, लेकिन यह एक महत्वपूर्ण प्रश्न उठाता है, हम विशेषज्ञों की अगली पीढ़ी को कैसे प्रशिक्षित करें यदि वे कभी मूल सिद्धांत विकसित नहीं करते हैं?"
अल्पावधि में, AI टीमों को अधिक उत्पादक बना सकता है। लेकिन अगर कर्मचारी मुख्य सोच और समस्या-समाधान के लिए इस पर निर्भर होने लगते हैं, तो व्यवसाय जटिल, अप्रत्याशित, या मानवीय स्पर्श की आवश्यकता वाली स्थितियों को संभालने के लिए आवश्यक विशेषज्ञता खोने का जोखिम उठाते हैं। Meyer का मानना है कि कंपनियों और शिक्षकों दोनों को आधारभूत ज्ञान बनाए रखने के बारे में जानबूझकर होने की आवश्यकता है, खासकर उन परिदृश्यों के लिए जहां AI पर भरोसा नहीं किया जा सकता है।
जवाबदेही अभी भी मनुष्यों की है
शायद सबसे महत्वपूर्ण मुद्दा जो Meyer उठाते हैं वह जवाबदेही है। जैसे-जैसे AI सिस्टम अधिक जिम्मेदारी लेते हैं, कुछ संगठन चीजें गलत होने पर दोष स्थानांतरित करने के लिए प्रलोभित हो सकते हैं। Meyer स्पष्ट हैं कि यह एक व्यवहार्य दृष्टिकोण नहीं है।
"जवाबदेही, और इसका कानूनी समकक्ष, दायित्व, मूल रूप से मनुष्यों से जुड़े हैं," वे कहते हैं। "आप 'AI ने ऐसा किया' कहकर बुरे परिणाम से अपने हाथ नहीं धो सकते।"
वे बताते हैं कि कई कंपनियां पहले से ही इस धूसर क्षेत्र को नेविगेट करने की कोशिश कर रही हैं। AI प्रदाता अक्सर अस्वीकरण शामिल करते हैं कि उनके सिस्टम गलतियां कर सकते हैं, जबकि ऑटोमोटिव जैसे उद्योग "स्व-ड्राइविंग" सुविधाओं को बढ़ावा देते हैं लेकिन फिर भी मानव चालक को जिम्मेदार ठहराते हैं। हालांकि, Meyer तर्क देते हैं कि यदि सिस्टम वास्तव में स्वायत्त हैं, तो जिम्मेदारी उन लोगों पर स्थानांतरित होनी चाहिए जो उन्हें डिजाइन और तैनात करते हैं।
यह छोटे, रोजमर्रा के उपयोग मामलों में भी लागू होता है। उदाहरण के लिए, संवेदनशील डेटा को संभालने वाले एप्लिकेशन बनाने के लिए AI का उपयोग करने वाले व्यवसाय यह नहीं मान सकते कि तकनीक सुरक्षा को सही तरीके से प्रबंधित करेगी। "AI को डेटा सौंपा नहीं गया है," Meyer कहते हैं। "कंपनी को सौंपा गया है।"







