Microsoft ने Maia 200 नामक एक नई आर्टिफिशियल इंटेलिजेंस चिप पेश की है जो क्लाउड कंप्यूटिंग वर्कलोड को लक्षित करती है। यह चिप Microsoft द्वारा अपनी पहली AI चिप, Maia 100 को प्रकट करने के दो साल बाद आई है, जो कभी भी क्लाउड क्लाइंट्स के लिए व्यापक रूप से उपलब्ध नहीं हुई। कंपनी ने कहा कि Maia 200 भविष्य में अधिक ग्राहकों तक पहुंचेगी और व्यापक उपलब्धता प्रदान करेगी।
Microsoft ने घोषणा की कि Maia 200, Nvidia, Amazon के Trainium और Google के TPUs के प्रोसेसर के विकल्प के रूप में काम कर सकती है। Scott Guthrie, Microsoft के क्लाउड और AI के कार्यकारी उपाध्यक्ष ने कहा कि Maia 200 "भविष्य में व्यापक ग्राहक उपलब्धता" लाती है। Microsoft ने कहा कि Maia 200 अब तक तैनात की गई इसकी सबसे कुशल इंफरेंस सिस्टम है।
डेवलपर्स, शिक्षाविद और AI प्रयोगशालाएं Maia 200 सॉफ्टवेयर डेवलपमेंट किट के पूर्वावलोकन के लिए आवेदन कर सकती हैं। पूर्वावलोकन नई चिप पर AI वर्कलोड बनाने और अनुकूलित करने के लिए टूल्स तक शीघ्र पहुंच प्रदान करता है। Microsoft ने कहा कि पूर्वावलोकन ओपन सोर्स AI मॉडल और एंटरप्राइज उपयोग के मामलों में प्रयोग को व्यापक बनाएगा।
Microsoft ने कहा कि Mustafa Suleyman के नेतृत्व वाली इसकी सुपरइंटेलिजेंस टीम आंतरिक और ग्राहक वर्कलोड के लिए Maia 200 का उपयोग करेगी। कंपनी ने यह भी पुष्टि की कि Microsoft 365 Copilot और Microsoft Foundry नई चिप पर चलेंगे। इन सेवाओं में उत्पादकता सॉफ्टवेयर ऐड-ऑन और बड़े AI मॉडल के शीर्ष पर निर्माण के लिए फ्रेमवर्क शामिल हैं।
Microsoft ने कहा कि क्लाउड प्रदाता Anthropic और OpenAI जैसे AI मॉडल डेवलपर्स की बढ़ती मांग का सामना कर रहे हैं। डेटा सेंटर ऑपरेटर ऊर्जा और लागत बाधाओं का प्रबंधन करते हुए उच्च कंप्यूटिंग पावर की तलाश करते हैं। इस प्रतिस्पर्धी वातावरण में, कंपनियां परिचालन खर्च और ऊर्जा उपयोग के विरुद्ध प्रदर्शन को संतुलित करने का लक्ष्य रखती हैं।
Microsoft ने कहा कि Maia 200 चिप्स Taiwan Semiconductor Manufacturing Co. की 3-नैनोमीटर प्रक्रिया का उपयोग करती हैं। कंपनी ने कहा कि यह प्रत्येक सर्वर के अंदर चार Maia 200 चिप्स रखती है, जो बढ़े हुए थ्रूपुट के लिए परस्पर जुड़ी हुई हैं। Microsoft ने समझाया कि डिज़ाइन Nvidia इंस्टॉलेशन में देखे गए InfiniBand मानक के बजाय Ethernet केबल का उपयोग करता है।
कंपनी ने कहा कि Maia 200 विकल्पों की तुलना में समकक्ष मूल्य बिंदुओं पर 30 प्रतिशत अधिक प्रदर्शन देती है। Microsoft ने कहा कि प्रत्येक Maia 200 में AWS के Trainium या Google के सातवीं पीढ़ी के TPUs की तुलना में अधिक हाई-बैंडविड्थ मेमोरी शामिल है। यह वास्तुशिल्प डिज़ाइन बड़े पैमाने पर मॉडल इंफरेंस वर्कलोड का समर्थन करने का लक्ष्य रखता है।
Microsoft ने यह भी कहा कि यह प्रदर्शन को और भी बढ़ाने के लिए 6,144 Maia 200 चिप्स तक को जोड़ सकती है। कंपनी ने दावा किया कि यह दृष्टिकोण ऊर्जा उपयोग और स्वामित्व की कुल लागत को कम करने में मदद करता है। Microsoft ने पहले दिखाया था कि Maia 100, 2023 में GitHub Copilot चला सकती है।
Microsoft ने कहा कि वह पहले अपने U.S. Central डेटा सेंटर क्षेत्र में Maia 200 चिप्स तैनात करेगी। कंपनी ने कहा कि चिप्स बाद में U.S. West 3 क्षेत्र में आएंगी। इन प्रारंभिक रोलआउट के बाद अतिरिक्त वैश्विक तैनाती होगी।
पोस्ट Microsoft Unveils Second-Generation AI Chip to Strengthen Cloud Capabilities सबसे पहले Blockonomi पर प्रकाशित हुई।


