सटीकता की चिंताओं के बीच OpenAI स्वास्थ्य निर्णयों के लिए ChatGPT को बढ़ावा देता है
Terrill Dicki मार्च 05, 2026 01:21
OpenAI कैंसर उपचार के निर्णयों के लिए ChatGPT का उपयोग करने वाले परिवार को उजागर करता है, लेकिन हालिया अध्ययन दर्शाते हैं कि AI स्वास्थ्य उपकरणों में महत्वपूर्ण सटीकता और सुरक्षा समस्याएं हैं।
OpenAI ने इस सप्ताह एक केस स्टडी प्रकाशित की जिसमें एक परिवार को दिखाया गया जिसने अपने बेटे के कैंसर उपचार निर्णयों की तैयारी के लिए ChatGPT का उपयोग किया, AI चैटबॉट को चिकित्सक मार्गदर्शन के पूरक के रूप में प्रस्तुत किया। यह समय चौंकाने वाला है क्योंकि बढ़ते सबूत बताते हैं कि AI स्वास्थ्य उपकरणों में महत्वपूर्ण विश्वसनीयता समस्याएं हैं।
4 मार्च को जारी प्रचार सामग्री में बताया गया है कि माता-पिता ने अपने बच्चे की ऑन्कोलॉजी टीम के साथ ChatGPT का उपयोग कैसे किया। OpenAI इसे जिम्मेदार AI उपयोग के रूप में प्रस्तुत करता है—चिकित्सा विशेषज्ञता को प्रतिस्थापित करने के बजाय पूरक बनाना।
लेकिन यह सुखद कथा असहज शोध निष्कर्षों से टकराती है। Nature Medicine में प्रकाशित एक अध्ययन ने OpenAI के अपने "ChatGPT Health" उत्पाद की जांच करते हुए सटीकता, सुरक्षा प्रोटोकॉल और चिकित्सा सिफारिशों में नस्लीय पूर्वाग्रह के साथ महत्वपूर्ण समस्याएं पाईं। यह एक ऐसे उपकरण के लिए मामूली चेतावनी नहीं है जिसका उपयोग लोग कैंसर उपचार के बारे में जीवन-मृत्यु के निर्णय लेते समय कर सकते हैं।
सटीकता की समस्या
स्वतंत्र शोध बेहतर स्थिति में भी मिश्रित तस्वीर प्रस्तुत करता है। Mass General Brigham के एक अध्ययन में पाया गया कि ChatGPT ने चिकित्सा विशेषज्ञताओं में लगभग 72% सटीकता हासिल की, जो अंतिम निदान के लिए 77% तक पहुंच गई। यह अच्छा लगता है जब तक आप यह विचार नहीं करते कि दांव पर क्या है—क्या आप एक ऐसे विमान में सवार होंगे जिसमें पायलट द्वारा गंभीर त्रुटि करने की 23% संभावना है?
हेल्थकेयर AI कंपनी Atropos ने और भी खराब संख्याएं दीं: सामान्य-उद्देश्य बड़े भाषा मॉडल चिकित्सकों के लिए केवल 2% से 10% समय नैदानिक रूप से प्रासंगिक जानकारी प्रदान करते हैं। "कभी-कभी सहायक" और "कैंसर निर्णयों के लिए पर्याप्त विश्वसनीय" के बीच की खाई विशाल बनी हुई है।
American Medical Association ने स्पष्ट शब्दों में बात की है। संगठन नैदानिक निर्णय सहायता के लिए LLM-आधारित उपकरणों के चिकित्सक उपयोग के खिलाफ सिफारिश करता है, सटीकता की चिंताओं और मानकीकृत दिशानिर्देशों की अनुपस्थिति का हवाला देते हुए। जब AMA डॉक्टरों को दूर रहने के लिए कहता है, तो मरीजों को शायद ध्यान देना चाहिए।
ChatGPT क्या नहीं कर सकता
AI चैटबॉट शारीरिक परीक्षण नहीं कर सकते। वे रोगी की बॉडी लैंग्वेज नहीं पढ़ सकते या वे सहज अनुवर्ती प्रश्न नहीं पूछ सकते जो अनुभवी ऑन्कोलॉजिस्ट दशकों में विकसित करते हैं। वे मतिभ्रम कर सकते हैं—आत्मविश्वास से भरी जानकारी उत्पन्न करना जो पूरी तरह से मनगढ़ंत है।
गोपनीयता की चिंताएं एक और परत जोड़ती हैं। ChatGPT में टाइप किया गया हर लक्षण, हर डर, बच्चे के कैंसर के बारे में हर विवरण डेटा बन जाता है जिस पर उपयोगकर्ताओं का सीमित नियंत्रण होता है।
OpenAI की केस स्टडी इस बात पर जोर देती है कि परिवार ने "डॉक्टरों के विशेषज्ञ मार्गदर्शन के साथ" काम किया। यह योग्यता मायने रखती है। खतरा सूचित रोगियों द्वारा बेहतर प्रश्न पूछने का नहीं है—यह संकट में संवेदनशील लोगों द्वारा संभावित रूप से ऐसे उपकरण पर अत्यधिक निर्भर होने का है जो मार्केटिंग के सुझाव से अधिक बार गलत होता है।
OpenAI की उद्यम महत्वाकांक्षाओं को देख रहे क्रिप्टो निवेशकों के लिए, स्वास्थ्य सेवा की पहल उच्च-दांव वाले क्षेत्रों में आक्रामक विस्तार का संकेत देती है। क्या नियामक AI कंपनियों को दस्तावेजित सटीकता समस्याओं के साथ चिकित्सा निर्णय लेने वाले उपकरणों को बढ़ावा देने को सहन करेंगे, यह 2026 में एक खुला प्रश्न बना हुआ है।
छवि स्रोत: Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech



