दक्षिण अफ्रीका में सरकारी विभाग सार्वजनिक कार्यक्रमों का मूल्यांकन करने और प्रदर्शन की निगरानी करने के लिए डिजिटल उपकरणों पर तेजी से निर्भर हो रहे हैं। यह व्यापक सार्वजनिक-क्षेत्र सुधारों का हिस्सा है। इनका उद्देश्य जवाबदेही में सुधार करना, ऑडिट दबाव का जवाब देना और सीमित कर्मचारियों और बजट के साथ बड़े पैमाने के कार्यक्रमों का प्रबंधन करना है।
यहाँ एक उदाहरण है। आवास वितरण, सामाजिक अनुदान या बुनियादी ढांचे के विस्तार को ट्रैक करने वाले राष्ट्रीय विभाग आवधिक कागज-आधारित रिपोर्टों के बजाय डिजिटल प्रदर्शन प्रणालियों पर निर्भर करते हैं। डैशबोर्ड – एक ही स्थान पर विज़ुअल डेटा दिखाने का एक तरीका – सेवा वितरण पर लगभग वास्तविक समय के अपडेट प्रदान करते हैं।
एक अन्य उदाहरण मोबाइल डेटा एकत्र करने वाले प्लेटफार्मों का उपयोग है। ये फ्रंटलाइन अधिकारियों और ठेकेदारों को सीधे फील्ड से जानकारी अपलोड करने की अनुमति देते हैं।
दोनों उदाहरण बड़े डेटासेट को संसाधित करने और ऐसी अंतर्दृष्टि उत्पन्न करने के लिए कृत्रिम बुद्धिमत्ता (AI) के उपयोग के लिए उपयुक्त हैं जिनका विश्लेषण करने में पहले महीनों लगते थे।
इस बदलाव को अक्सर सार्वजनिक क्षेत्र में जवाबदेही और दक्षता के लिए एक कदम आगे के रूप में चित्रित किया जाता है।
मैं एक सार्वजनिक नीति विद्वान हूं जिसकी सरकारी कार्यक्रमों की निगरानी और मूल्यांकन में विशेष रुचि है। मेरे हालिया शोध से एक चिंताजनक प्रवृत्ति का पता चलता है, कि प्रौद्योगिकी की ओर रुख उसे विनियमित करने वाले नैतिक और शासन ढांचे की तुलना में बहुत तेजी से सामने आ रहा है।
मैंने जिन मामलों की जांच की है, उनमें डिजिटल उपकरण पहले से ही नियमित निगरानी और मूल्यांकन प्रक्रियाओं में एम्बेडेड थे। लेकिन उनके उपयोग का मार्गदर्शन करने वाले स्पष्ट मानक नहीं थे।
यह निगरानी, बहिष्करण, डेटा दुरुपयोग और खराब पेशेवर निर्णय के आसपास जोखिम प्रस्तुत करता है। ये जोखिम अमूर्त नहीं हैं। वे यह आकार देते हैं कि नागरिक राज्य का अनुभव कैसे करते हैं, उनके डेटा को कैसे संभाला जाता है और नीतिगत निर्णयों में अंततः किसकी आवाज़ की गिनती होती है।
जब प्रौद्योगिकी नीति से आगे निकल जाती है
सार्वजनिक-क्षेत्र के मूल्यांकन में सरकारी कार्यक्रमों और नीतियों का आकलन शामिल है। यह निर्धारित करता है कि क्या:
- सार्वजनिक संसाधनों का प्रभावी ढंग से उपयोग किया जाता है
- कार्यक्रम अपने इच्छित परिणाम प्राप्त करते हैं
- नागरिक राज्य को प्रदर्शन के लिए जवाबदेह ठहरा सकते हैं।
परंपरागत रूप से, ये मूल्यांकन समुदायों, मूल्यांकनकर्ताओं, सरकार और अन्य लोगों के बीच आमने-सामने की बातचीत पर निर्भर करते थे। उनमें गुणात्मक तरीके शामिल थे जो बारीकियों, स्पष्टीकरण और विश्वास-निर्माण की अनुमति देते थे।
डिजिटल उपकरणों ने इसे बदल दिया है।
अपने शोध में, मैंने सरकार, एनजीओ, शैक्षणिक संस्थानों, पेशेवर संघों और निजी परामर्श संस्थानों में मूल्यांकनकर्ताओं का साक्षात्कार लिया। मुझे सभी में एक सुसंगत चिंता मिली। डिजिटल प्रणालियों को अक्सर मूल्यांकन अभ्यास के अनुरूप नैतिक मार्गदर्शन के बिना पेश किया जाता है।
नैतिक मार्गदर्शन स्पष्ट, व्यावहारिक नियम प्रदान करेगा कि मूल्यांकन में डिजिटल उपकरणों का उपयोग कैसे किया जाता है। उदाहरण के लिए, डैशबोर्ड या स्वचालित डेटा विश्लेषण का उपयोग करते समय, मार्गदर्शन को मूल्यांकनकर्ताओं को यह समझाने की आवश्यकता होनी चाहिए कि डेटा कैसे उत्पन्न होता है, उन तक किसकी पहुंच है और निष्कर्ष मूल्यांकन किए जा रहे समुदायों को कैसे प्रभावित कर सकते हैं। इसे सहमति के बिना व्यक्तियों की निगरानी करने या संदर्भ को नज़रअंदाज करने वाले तरीकों से कार्यक्रमों को रैंक करने के लिए डिजिटल प्रणालियों के उपयोग को भी रोकना चाहिए।
दक्षिण अफ्रीका का व्यक्तिगत सूचना संरक्षण अधिनियम डेटा संरक्षण के लिए एक सामान्य कानूनी ढांचा प्रदान करता है। लेकिन यह उन विशिष्ट नैतिक दुविधाओं को संबोधित नहीं करता है जो तब उत्पन्न होती हैं जब मूल्यांकन स्वचालित, क्लाउड-आधारित और एल्गोरिदमिक रूप से मध्यस्थता वाला हो जाता है।
परिणाम यह है कि मूल्यांकनकर्ता अक्सर स्पष्ट मानकों के बिना जटिल नैतिक क्षेत्र में नेविगेट करते हुए छोड़ दिए जाते हैं। यह संस्थानों को मिसाल, अनौपचारिक आदतों, पिछली प्रथाओं और सॉफ़्टवेयर डिफ़ॉल्ट पर निर्भर रहने के लिए मजबूर करता है।
निगरानी की रेंगना और डेटा दुरुपयोग
डिजिटल प्लेटफार्म बड़ी मात्रा में डेटा एकत्र करना संभव बनाते हैं। एक बार डेटा क्लाउड-आधारित प्रणालियों या तृतीय-पक्ष प्लेटफार्मों पर अपलोड हो जाने के बाद, इसके भंडारण, पुन: उपयोग और साझा करने पर नियंत्रण अक्सर मूल्यांकनकर्ताओं से दूसरों के पास चला जाता है।
कई मूल्यांकनकर्ताओं ने उन स्थितियों का वर्णन किया जहां उन्होंने सरकारी विभागों की ओर से एकत्र किया था डेटा बाद में विभागों या अन्य राज्य एजेंसियों द्वारा पुन: उपयोग किया गया। यह प्रतिभागियों की स्पष्ट जागरूकता के बिना किया गया था। डिजिटल वातावरण में सहमति प्रक्रियाओं को अक्सर एक ही क्लिक तक कम कर दिया जाता है।
अन्य उपयोगों के उदाहरणों में विश्लेषण, रिपोर्टिंग या संस्थागत निगरानी के अन्य रूप शामिल थे।
शोध से सामने आए नैतिक जोखिमों में से एक निगरानी के लिए इस डेटा का उपयोग था। यह व्यक्तियों, समुदायों या फ्रंटलाइन श्रमिकों की निगरानी के लिए डेटा का उपयोग है।
डिजिटल बहिष्करण और अदृश्य आवाज़ें
डिजिटल मूल्यांकन उपकरणों को अक्सर पहुंच और भागीदारी का विस्तार करने के रूप में प्रस्तुत किया जाता है। लेकिन व्यवहार में, वे पहले से ही हाशिए पर पड़े समूहों को बाहर कर सकते हैं। सीमित इंटरनेट पहुंच, कम डिजिटल साक्षरता, भाषा बाधाओं या अविश्वसनीय बुनियादी ढांचे वाले समुदायों के डिजिटल मूल्यांकन में पूरी तरह से भाग लेने की संभावना कम है।
स्वचालित उपकरणों की सीमाएं हैं। उदाहरण के लिए, वे बहुभाषी डेटा, स्थानीय उच्चारण या सांस्कृतिक रूप से विशिष्ट अभिव्यक्ति के रूपों को संसाधित करने में संघर्ष कर सकते हैं। यह जीवित अनुभव के आंशिक या विकृत प्रतिनिधित्व की ओर ले जाता है। मेरे अध्ययन में मूल्यांकनकर्ताओं ने व्यवहार में ऐसा होते देखा।
इस बहिष्करण के गंभीर परिणाम हैं विशेष रूप से दक्षिण अफ्रीका जैसे असमानता वाले देश में। डिजिटल उपकरणों पर बहुत अधिक निर्भर मूल्यांकन शहरी, जुड़ी हुई आबादी को खोज सकते हैं और ग्रामीण या अनौपचारिक समुदायों को सांख्यिकीय रूप से अदृश्य बना सकते हैं।
यह केवल एक तकनीकी सीमा नहीं है। यह आकार देता है कि किन आवश्यकताओं को मान्यता दी जाती है और किसके अनुभव नीतिगत निर्णयों को सूचित करते हैं। यदि मूल्यांकन डेटा सबसे कमजोर लोगों का कम प्रतिनिधित्व करता है, तो सार्वजनिक कार्यक्रम वास्तव में जितने प्रभावी हैं उससे अधिक प्रभावी दिखाई दे सकते हैं। यह संरचनात्मक विफलताओं को संबोधित करने के बजाय उन्हें छिपाता है।
मेरे अध्ययन में, कुछ मूल्यांकनों ने सकारात्मक प्रदर्शन रुझानों की रिपोर्ट की, इसके बावजूद मूल्यांकनकर्ताओं ने डेटा संग्रह में अंतराल देखा।
एल्गोरिदम तटस्थ नहीं हैं
मूल्यांकनकर्ताओं ने एल्गोरिदमिक आउटपुट को दी गई बढ़ती अधिकार के बारे में भी चिंता जताई। डैशबोर्ड, स्वचालित रिपोर्ट और एआई-संचालित विश्लेषण को अक्सर सच्ची तस्वीर के रूप में माना जाता है। यह तब भी होता है जब वे फील्ड-आधारित ज्ञान या प्रासंगिक समझ के साथ संघर्ष करते हैं।
उदाहरण के लिए, डैशबोर्ड एक लक्ष्य को ट्रैक पर दिखा सकते हैं। लेकिन साइट विज़िट के एक उदाहरण में, मूल्यांकनकर्ता खामियां या असंतोष पा सकते हैं।
कई प्रतिभागियों ने संख्याओं के विश्लेषण पर भरोसा करने के लिए फंडर्स या संस्थानों से दबाव की रिपोर्ट की।
फिर भी एल्गोरिदम उनके डिज़ाइन में एम्बेडेड धारणाओं, डेटासेट और प्राथमिकताओं को प्रतिबिंबित करते हैं। जब गैर-आलोचनात्मक रूप से लागू किया जाता है, तो वे पूर्वाग्रह को पुन: उत्पन्न कर सकते हैं, सामाजिक गतिशीलता को अत्यधिक सरल बना सकते हैं और गुणात्मक अंतर्दृष्टि की उपेक्षा कर सकते हैं।
यदि डिजिटल प्रणालियां यह निर्धारित करती हैं कि डेटा कैसे एकत्र, विश्लेषण और रिपोर्ट किया जाना चाहिए, तो मूल्यांकनकर्ता तकनीशियन बनने का जोखिम उठाते हैं न कि निर्णय लागू करने वाले स्वतंत्र पेशेवर।
अफ्रीका को संदर्भ-संवेदनशील नैतिकता की आवश्यकता क्यों है
पूरे अफ्रीका में, डिजिटल प्रौद्योगिकियों पर राष्ट्रीय रणनीतियां और नीतियां अक्सर अंतर्राष्ट्रीय ढांचे से बहुत अधिक उधार लेती हैं। ये बहुत अलग संदर्भों में विकसित की जाती हैं। एआई नैतिकता और डेटा शासन पर वैश्विक सिद्धांत उपयोगी संदर्भ बिंदु प्रदान करते हैं। लेकिन वे अफ्रीका के अधिकांश सार्वजनिक क्षेत्र में असमानता, ऐतिहासिक अविश्वास और असमान डिजिटल पहुंच की वास्तविकताओं को पर्याप्त रूप से संबोधित नहीं करते हैं।
मेरा शोध तर्क देता है कि डिजिटल मूल्यांकन के लिए नैतिक शासन संदर्भ-संवेदनशील होना चाहिए। मानकों को संबोधित करना चाहिए:
- सहमति कैसे प्राप्त की जाती है
- मूल्यांकन डेटा का मालिक कौन है
- एल्गोरिदमिक उपकरण कैसे चुने और ऑडिट किए जाते हैं
- मूल्यांकनकर्ता की स्वतंत्रता की रक्षा कैसे की जाती है।
नैतिक ढांचे को डिजिटल प्रणालियों के डिज़ाइन चरण में एम्बेडेड होना चाहिए।![]()
लेसेडी सेनामेले मतलाला, सार्वजनिक नीति, निगरानी और मूल्यांकन में वरिष्ठ व्याख्याता और शोधकर्ता, जोहान्सबर्ग विश्वविद्यालय
यह लेख क्रिएटिव कॉमन्स लाइसेंस के तहत द कन्वर्सेशन से पुनः प्रकाशित है। मूल लेख पढ़ें।


