Caitlin Kalinowski, OpenAI की अब पूर्व रोबोटिक्स प्रमुख, ने कंपनी के लिए एक साल से थोड़ा अधिक समय तक काम करने के बाद अपने पद से इस्तीफा दे दिया है। Kalinowski ने चिंता जताई कि अमेरिकी सेना कंपनी के AI टूल्स का उपयोग घरेलू निगरानी और अमेरिकी हथियारों में स्वचालित, लक्षित प्रणालियों के लिए कर सकती है।
OpenAI की हार्डवेयर और रोबोटिक इंजीनियरिंग प्रमुख, Caitlin Kalinowski, नवंबर 2024 से सेवा करने के बाद AI कंपनी से चली गई हैं। Kalinowski ने 7 मार्च को अपने इस्तीफे की घोषणा की, फरवरी में OpenAI और अमेरिकी रक्षा विभाग के बीच हुए एक समझौते पर चिंता व्यक्त करते हुए।
अमेरिकी सेना घरेलू निगरानी के लिए AI का उपयोग करेगी, Kalinowski का दावा
Kalinowski के अनुसार, उनका इस्तीफा अमेरिकी रक्षा विभाग के न्यायिक निरीक्षण के बिना अमेरिकी नागरिकों की निगरानी करने के लिए AI टूल्स और क्षमताओं का उपयोग करने के इरादे से प्रेरित था। पूर्व OpenAI कर्मचारी ने X पर लिखा कि राष्ट्रीय सुरक्षा में AI की महत्वपूर्ण भूमिका है।
उन्होंने बताया कि अमेरिकी रक्षा विभाग निगरानी और स्वायत्त हथियारों के लिए AI का उपयोग करने का इरादा रखता है, जो एक ऐसा निर्णय है जिससे वह असहमत हैं। उन्होंने कहा कि उनका निर्णय "सिद्धांत के बारे में था, लोगों के बारे में नहीं" और वह OpenAI में अपने समय के दौरान टीम ने जो बनाया उस पर गर्व महसूस करती हैं।
फरवरी में, अमेरिकी पेंटागन ने वर्गीकृत सिस्टम पर स्वचालित मॉडल तैनात करने पर शीर्ष AI कंपनियों के साथ बातचीत तेज कर दी। Cryptopolitan ने रिपोर्ट किया कि पेंटागन वर्गीकृत सैन्य नेटवर्क पर AI टूल्स को शामिल करने के लिए Anthropic और OpenAI के साथ बातचीत को आगे बढ़ा रहा था।
Emil Michael, पेंटागन के मुख्य प्रौद्योगिकी अधिकारी, ने तकनीकी नेताओं के साथ व्हाइट हाउस की बैठक में कहा कि सेना चाहती है कि AI मॉडल बिना किसी सीमा या प्रतिबंध के वर्गीकृत और गैर-वर्गीकृत दोनों नेटवर्क पर संचालित हों।
अमेरिकी सरकार और Anthropic के बीच बातचीत एक दीवार से टकरा गई क्योंकि इसके नेताओं ने स्पष्ट रेखाएं खींच दी हैं कि उनकी प्रौद्योगिकी का उपयोग घरेलू निगरानी अभियानों और स्वायत्त हथियार लक्ष्यीकरण प्रणालियों के लिए नहीं किया जाएगा। कंपनी ने फरवरी के अंत में AI सुरक्षा उपायों को हटाने के पेंटागन के अल्टीमेटम की अवहेलना की।
Anthropic के CEO Dario Amodei ने अपनी स्थिति बनाए रखी, कंपनी की प्रौद्योगिकी को सैन्य अभियानों में उपयोग करने की अनुमति देने से इनकार करते हुए। जवाब में, Trump ने फरवरी के अंत में सभी संघीय एजेंसियों को Anthropic प्रौद्योगिकी का उपयोग बंद करने का निर्देश दिया।
OpenAI ने AI की सैन्य तैनाती पर प्रतिबंध लगाए
रक्षा विभाग ने OpenAI के साथ एक समझौता किया जिसने तब से आलोचना को आकर्षित किया है। Sam Altman ने उल्लेख किया कि समझौता काफी अवसरवादी लग रहा था और स्पष्ट किया कि कंपनी ने सैन्य अभियानों में अपने AI टूल्स का उपयोग कैसे किया जाएगा, इस पर प्रतिबंध लगाए हैं।
हालांकि, Kalinowski की चुनौती का दावा है कि घोषणा जल्दबाजी में की गई थी, आवश्यक सुरक्षा उपायों के बिना। उन्होंने कहा कि उनका जाना शासन संबंधी चिंताओं पर आधारित था, जो जल्दबाजी करने के लिए बहुत महत्वपूर्ण हैं।
OpenAI ने एक बयान में Kalinowski के जाने की पुष्टि की, लेकिन पुष्टि की कि रक्षा विभागों के साथ कंपनी के संबंध राष्ट्रीय सुरक्षा में AI टूल्स के जिम्मेदार उपयोग का मार्ग प्रशस्त करते हैं।
फरवरी में, OpenAI ने घोषणा की कि वह युद्ध विभाग के सुरक्षित एंटरप्राइज AI प्लेटफॉर्म GenAI.mil पर ChatGPT का एक कस्टम संस्करण तैनात करेगी। कंपनी ने नोट किया कि सैन्य और रक्षा विभागों के साथ इसका सहयोग लोगों की रक्षा करने और संघर्ष को टालने में AI की महत्वपूर्ण भूमिका से उपजा है।
सैन्य AI उन्नति पर अमेरिकी सरकार और AI कंपनियों के बीच घर्षण के कारण भी अधिक शोधकर्ताओं ने AI कंपनियों को छोड़ दिया है। Anthropic के शीर्ष सुरक्षा शोधकर्ताओं में से एक ने एक बयान के साथ इस्तीफा दे दिया, "दुनिया खतरे में है।"
एक अन्य OpenAI शोधकर्ता ने भी अपनी भूमिका छोड़ दी, यह कहते हुए कि AI प्रौद्योगिकी के पास मनुष्यों को नियंत्रित करने का एक तरीका है जिसे डेवलपर्स समझ या रोक नहीं सकते।
Zoë Hitzig, OpenAI की एक पूर्व शोधकर्ता, ने भी 11 फरवरी को कंपनी छोड़ दी। उन्होंने उसी दिन इस्तीफा दे दिया जिस दिन OpenAI ने घोषणा की थी कि उसने अपने LLM ChatGPT पर विज्ञापनों का परीक्षण शुरू कर दिया है। उन्होंने दावा किया कि AI कंपनी वही गलती कर रही थी जो Facebook ने की थी।
Hitzig ने अपनी चिंताएं व्यक्त कीं कि गहरे व्यक्तिगत खुलासों (चिकित्सा भय, रिश्ते के मुद्दे, धार्मिक विश्वास) के लिए एक विश्वासपात्र के रूप में ChatGPT की अनूठी भूमिका विज्ञापन लक्ष्यीकरण को विशेष रूप से जोखिम भरा बनाती है।
Source: https://www.cryptopolitan.com/openai-robotics-boss-resigns-ai-warning/


