यूरोप में लगभग हर दो में से एक युवा ने AI चैटबॉट का उपयोग अंतरंग या व्यक्तिगत मामलों पर चर्चा करने के लिए किया है, क्योंकि यह तकनीक तेजी से भावनात्मक समर्थन के एक स्रोत के रूप में काम कर रही है। यह बात Ipsos BVA के एक सर्वेक्षण में मंगलवार, 5 मई को सामने आई।
सर्वेक्षण में शामिल 3,800 लोगों में से 51% ने कहा कि चैटबॉट के साथ मानसिक स्वास्थ्य और व्यक्तिगत मुद्दों पर चर्चा करना "आसान" था। केवल 49% ने स्वास्थ्य पेशेवरों के बारे में और 37% ने मनोवैज्ञानिकों के बारे में यही बात कही।
आपके करीबी लोग सूची में शीर्ष पर रहे, जिसमें 68% ने कहा कि दोस्तों के साथ और 61% ने माता-पिता के साथ मुद्दों पर चर्चा करना आसान है।
यह सर्वेक्षण फ्रांस के गोपनीयता निगरानी संस्था CNIL और बीमा कंपनी Groupe VYV द्वारा कराया गया था, और 2026 की शुरुआत में फ्रांस, जर्मनी, स्वीडन और आयरलैंड में 11 से 25 वर्ष की आयु के लोगों के बीच आयोजित किया गया।
निष्कर्षों ने युवाओं के मानसिक स्वास्थ्य को लेकर बढ़ती चिंताओं को उजागर किया। सर्वेक्षण में पाया गया कि लगभग 28% उत्तरदाता संदिग्ध सामान्यीकृत चिंता विकार की सीमा पर थे।
सर्वेक्षण में शामिल लगभग 90% लोगों ने पहले कृत्रिम बुद्धिमत्ता उपकरणों का उपयोग किया था, जिनमें से कई ने इसकी निरंतर उपलब्धता और गैर-निर्णयात्मक स्वभाव का हवाला दिया। पाँच में से तीन से अधिक उपयोगकर्ताओं ने AI को "जीवन सलाहकार" या "विश्वासपात्र" के रूप में वर्णित किया।
हालाँकि, पिछले एक वर्ष में AI उपकरणों के मनोवैज्ञानिक प्रभाव को लेकर चिंताएँ भी बढ़ी हैं, और विशेषज्ञों ने मानवीय भावनाओं को पहचानने और सुरक्षित रूप से भावनात्मक समर्थन प्रदान करने में AI की सीमाओं के बारे में चेतावनी दी है।
इस वर्ष की शुरुआत में, फ्लोरिडा के एक व्यक्ति के परिवार ने Google पर मुकदमा दायर किया, यह आरोप लगाते हुए कि उसके Gemini AI चैटबॉट ने उसके व्यामोह और अंततः आत्महत्या में योगदान दिया।
स्टॉकहोम के Karolinska Institutet में मनोवैज्ञानिक और डिजिटल स्वास्थ्य शोधकर्ता Ludwig Franke Föyen ने कहा कि सर्वेक्षण के परिणाम कोई आश्चर्य की बात नहीं थी।
Franke Föyen ने Reuters को बताया कि वर्तमान बड़े भाषा मॉडल उच्च-गुणवत्ता वाली प्रतिक्रियाएँ उत्पन्न कर सकते हैं, और यह भी जोड़ा कि उनके शोध से पता चलता है कि यहाँ तक कि लाइसेंस प्राप्त पेशेवर भी AI-जनित सलाह को मानव विशेषज्ञों की सलाह से अलग करने में संघर्ष कर सकते हैं।
लेकिन उन्होंने मानसिक स्वास्थ्य समर्थन के लिए केवल चैटबॉट पर निर्भर रहने के विरुद्ध चेतावनी दी, यह कहते हुए कि सामान्य-उद्देश्य AI प्रणालियाँ जुड़ाव के लिए डिज़ाइन की गई हैं और कंपनियों के लक्ष्य मानसिक स्वास्थ्य देखभाल की जरूरतों के अनुरूप नहीं हो सकते।
"AI जानकारी और समर्थन प्रदान कर सकता है, लेकिन इसे मानवीय संबंधों या पेशेवर देखभाल की जगह नहीं लेनी चाहिए," Franke Föyen ने कहा।
"अगर कोई माता-पिता, दोस्त या मानसिक स्वास्थ्य पेशेवर से बात करने के बजाय चैटबॉट की ओर मुड़ता है, तो यह एक चिंता की बात है। हम नहीं चाहते कि तकनीक लोगों को और अधिक अकेला महसूस कराए।" – Rappler.com

