वैलेंटाइन डे नजदीक आने के साथ, एक असहज सवाल पूछना उचित है: क्या होता है जब 'देखे और सुने जाने' की भावना किसी साथी से नहीं, बल्कि एक मशीन से आती है? विशिष्ट व्यक्तित्व और सकारात्मक स्वर के साथ डिज़ाइन किए गए, आर्टिफिशियल इंटेलिजेंस (AI) कंपेनियन चैटबॉट भावनात्मक सीमाओं को धुंधला कर सकते हैं और रोमांटिक लगाव को बढ़ावा दे सकते हैं। हालांकि यह हानिरहित लग सकता है, लेकिन यह व्यक्तियों और संगठनों दोनों के लिए चिंता का विषय है जो भावनात्मक निर्भरता, हेरफेर और डेटा लीकेज को रोकना चाहते हैं।
कई लोगों के लिए अकेलापन एक निरंतर वास्तविकता होने के साथ, हाल के वर्षों में कंपेनियन AI चैटबॉट्स में तेजी से वृद्धि हुई है।
"सामान्य-उद्देश्य चैटबॉट्स के विपरीत, Replika और Character.AI जैसे AI कंपेनियन ऐप्स कस्टम कैरेक्टर पेश करके एक कदम आगे जाते हैं – दोस्तों और रोमांटिक पार्टनर से लेकर फैंटेसी व्यक्तित्वों तक – जो विशिष्ट रूप से मानवीय महसूस करने के लिए डिज़ाइन किए गए हैं," KnowBe4 अफ्रीका में कंटेंट स्ट्रैटेजी की SVP और CISO सलाहकार Anna Collard टिप्पणी करती हैं।
AI कंपेनियन ऐप सेक्टर में वृद्धि तेज रही है: केवल 2025 की पहली छमाही में 60 मिलियन नए डाउनलोड दर्ज किए गए, जो साल-दर-साल 88% की वृद्धि है।
बाजार में अब दुनिया भर में 337 राजस्व-उत्पादक ऐप शामिल हैं, जिनमें से एक तिहाई से अधिक केवल पिछले साल लॉन्च किए गए थे।
ELIZA प्रभाव के खतरे
Collard का कहना है कि कई उपयोगकर्ता यह महसूस करने में धोखा खा जाते हैं कि वे एक मशीन के साथ अंतरंग बातचीत साझा करने में सुरक्षित हैं – तथाकथित ELIZA प्रभाव।
यह मनोवैज्ञानिक बंधन एक महत्वपूर्ण सुरक्षा कमजोरी पैदा करता है। जब उपयोगकर्ता AI को 'दोस्त' या 'साथी' के रूप में देखते हैं, तो वे संवेदनशील जानकारी साझा करने की अधिक संभावना रखते हैं – व्यक्तिगत शिकायतों और स्वास्थ्य चिंताओं से लेकर स्वामित्व वाले कॉर्पोरेट डेटा तक।
एक संगठनात्मक संदर्भ में, यह एक स्पष्ट उदाहरण है कि कैसे भावनात्मक ट्रिगर पारंपरिक सुरक्षा जागरूकता को ओवरराइड कर सकते हैं।
डेटा-लीकेज जोखिम
संगठनों के लिए सबसे तात्कालिक खतरा संवेदनशील जानकारी का रिसाव है। क्योंकि ये बॉट्स अक्सर संदिग्ध डेटा सुरक्षा मानकों वाले छोटे, विशिष्ट स्टार्टअप्स द्वारा विकसित किए जाते हैं, बॉट के साथ साझा की गई जानकारी शायद ही कभी निजी होती है। इसका उदाहरण हाल ही में एक AI टॉय है जिसने बच्चों के साथ अपनी 50 000 चैट के लॉग को उजागर किया। शाब्दिक रूप से Gmail खाते वाला कोई भी व्यक्ति इन बच्चों की निजी बातचीत देख सकता था।
इन ऐप्स की गोपनीयता नीतियां अक्सर अस्पष्ट होती हैं। कुछ मामलों में, चैट लॉग का उपयोग मॉडल को और प्रशिक्षित करने के लिए किया जाता है या असुरक्षित डेटाबेस में संग्रहीत किया जाता है। "सावधानी निश्चित रूप से आवश्यक है," Collard टिप्पणी करती हैं। "जो एक निजी, कम-दांव वाली बातचीत की तरह लगता है उसमें संवेदनशील जानकारी, रणनीति, वित्तीय दबाव, व्यक्तिगत तनाव या संदर्भात्मक विवरण हो सकते हैं जिन्हें विरोधी हथियार बना सकते हैं।"
एक बार लीक होने पर, उनका मानना है कि डेटा, उदाहरण के लिए, अत्यधिक व्यक्तिगत फ़िशिंग, ब्लैकमेल या प्रतिरूपण हमलों के लिए ईंधन बन सकता है। "सुरक्षा के संदर्भ में, यह एक पाठ्यपुस्तक उदाहरण है कि कैसे व्यक्तिगत व्यवहार और कॉर्पोरेट जोखिम अब अविभाज्य हैं।"
इन जोखिमों में मानव मॉडरेटर्स द्वारा प्रशिक्षण, गुणवत्ता नियंत्रण या सुरक्षा उद्देश्यों के लिए बातचीत की समीक्षा करना शामिल है, साथ ही उपयोगकर्ताओं द्वारा गलती से सार्वजनिक लिंक के माध्यम से बातचीत साझा करना, जिसका अर्थ है कि उस लिंक तक पहुंच वाला कोई भी व्यक्ति इसे पढ़ सकता है। Collard चेतावनी देती हैं। "हमने पहले ही तकनीकी क्षेत्र में उदाहरण देखे हैं कि कैसे उजागर डेटा अप्रत्याशित रूप से सामने आ सकता है।"
इसके अलावा, यदि कोई ऐप किसी उल्लंघन या कानूनी जांच में शामिल है तो संगठनों को कानूनी रूप से डेटा का खुलासा करने के लिए मजबूर किया जा सकता है। एक कार्यकारी या डेवलपर के लिए, किसी गोपनीय परियोजना या कठिन क्लाइंट के बारे में 'भड़ास निकालने' के सत्र साझा करना अनजाने में संवेदनशील संगठनात्मक डेटा के उजागर होने का कारण बन सकता है।
नीति अंतर
यह जोखिम आधुनिक कार्यस्थल के भीतर एक नीति अंतर को उजागर करता है। जबकि अधिकांश संगठनों के पास सहकर्मियों के बीच संबंधों के संबंध में स्पष्ट दिशानिर्देश हैं, बहुत कम ने कार्य उपकरणों पर या कॉर्पोरेट नेटवर्क के माध्यम से डेटिंग बॉट्स के उपयोग के प्रभावों पर विचार किया है।
इस जोखिम के प्रबंधन के लिए सरल जागरूकता से एक मजबूत मानव जोखिम प्रबंधन (HRM) दृष्टिकोण में संक्रमण की आवश्यकता है। इसमें तकनीकी गार्डरेल – जैसे Shadow AI खोज उपकरण – के साथ स्पष्ट उपयोग नीतियों को परत करना शामिल है – ताकि IT टीमों को दृश्यता मिल सके कि कौन से अस्वीकृत AI एजेंट उनके डेटा वातावरण के साथ इंटरैक्ट कर रहे हैं। केवल कर्मचारियों से सतर्क रहने के लिए कहना पर्याप्त नहीं है; संगठनों के पास मानवीय भावना और स्वचालित इंटरैक्शन के प्रतिच्छेदन को प्रबंधित करने के लिए सिस्टम होने चाहिए।
सोशल इंजीनियरिंग का भविष्य
क्या हम हैकर्स को अकेले व्यक्तियों को बड़े पैमाने पर उत्पादित फ्लर्ट बॉट्स के साथ लक्षित करते हुए देख सकते हैं? Collard का मानना है कि यह पहले से ही हो रहा है।
"सोशल इंजीनियरिंग हमेशा भावना, तात्कालिकता, भय, जिज्ञासा, प्यार और आकर्षण का फायदा उठाकर बढ़ाई गई है," वह टिप्पणी करती हैं। "AI बस इसे बड़े पैमाने पर स्वचालित करता है। जो मुझे सबसे ज्यादा चिंतित करता है वह तकनीक खुद नहीं है, बल्कि यह है कि यह उन लोगों को कैसे सशक्त बनाता है जिनके पास दुर्भावनापूर्ण इरादे हैं, जो विश्वसनीय रूप से मानवीय अंतरंगता को प्रतिबिंबित करते हैं, उदाहरण के लिए व्यवस्थित रोमांस स्कैमर।"
Collard के अनुसार, कुछ ही वर्षों में, घोटाले "प्रिय महोदय/महोदया" प्रकार से भावनात्मक रूप से बुद्धिमान हेरफेर में विकसित हो गए हैं। "और समस्या बॉट्स खुद नहीं हैं, यह स्कैमर्स द्वारा उनका जानबूझकर उपयोग है," वह कहती हैं।
वह एक अवैध LoveGPT बॉट का उदाहरण बताती हैं जो स्कैमर्स को अपने पीड़ितों में निर्भरता पैदा करने और भावनाओं को सक्रिय करने के लिए सही मनोवैज्ञानिक रूप से ट्रिगर करने वाली बातें कहने में मदद करता है। "स्कैमर्स को बस कॉपी और पेस्ट करना है या बस बातचीत को स्वचालित करना है," वह बताती हैं।
उपयोगकर्ताओं को शिकार बनने से रोकने के लिए क्या किया जा सकता है? हमेशा की तरह, बचाव मानवीय बना रहता है, Collard जोर देती हैं। "अंततः, कोई भी चैटबॉट, चाहे वह कितना भी चौकस या भावनात्मक रूप से धाराप्रवाह हो, वास्तविक मानवीय संबंध को प्रतिस्थापित नहीं कर सकता," वह जोर देती हैं।
यदि चैटबॉट के साथ एक इंटरैक्शन भावनात्मक रूप से प्रतिस्थापन, गुप्त या दूर जाने में कठिन महसूस होने लगता है, तो उनका मानना है कि यह रुकने और किसी विश्वसनीय व्यक्ति या पेशेवर तक पहुंचने का संकेत है। "तकनीक आधुनिक जीवन का हिस्सा हो सकती है, लेकिन इसका मतलब है कि हमें अपने डिजिटल माइंडफुलनेस कौशल को मजबूत करने की आवश्यकता है ताकि हेरफेर या प्रेरित निर्भरता को पहचानना सीख सकें। अंत में, जब अकेलेपन, कमजोरी और प्यार की बात आती है, तो सबसे सुरक्षित बचाव दृढ़ता से मानवीय रहता है," वह निष्कर्ष निकालती हैं।
