NVIDIA ने एजेंटिक वर्कलोड के लिए वेरा रुबिन POD 40-रैक AI सुपरकंप्यूटर का अनावरण किया
आइरिस कोलमैन मार्च 16, 2026 19:48
NVIDIA ने वेरा रुबिन POD की घोषणा की जिसमें 40 रैक में 1,152 GPU हैं, जो 60 एक्साफ्लॉप्स और ब्लैकवेल की तुलना में प्रति वाट 10x बेहतर इंफरेंस प्रदर्शन प्रदान करता है।
NVIDIA ने अभी अपने सबसे महत्वाकांक्षी AI इंफ्रास्ट्रक्चर प्ले की स्पेसिफिकेशन जारी की है। वेरा रुबिन POD में 40 रैक में 1,152 रुबिन GPU हैं, जो 60 एक्साफ्लॉप्स कंप्यूट पावर और 10 पेटाबाइट्स प्रति सेकंड की कुल स्केल-अप बैंडविड्थ प्रदान करते हैं। प्रोडक्शन यूनिट्स 2026 की दूसरी छमाही में शिप होंगे।
यहां के आंकड़े चौंका देने वाले हैं: 1.2 क्वाड्रिलियन ट्रांजिस्टर, लगभग 20,000 NVIDIA डाई, सभी को एक एकल सुसंगत सुपरकंप्यूटर के रूप में कार्य करने के लिए इंजीनियर किया गया है। NVIDIA का दावा है कि इसके वर्तमान ब्लैकवेल आर्किटेक्चर की तुलना में 4x बेहतर ट्रेनिंग प्रदर्शन और प्रति वाट 10x बेहतर इंफरेंस प्रदर्शन है—टोकन लागत वर्तमान स्तरों के दसवें हिस्से तक गिर रही है।
पांच उद्देश्य-निर्मित रैक सिस्टम
POD पांच अलग-अलग रैक-स्केल सिस्टम को जोड़ता है, जिनमें से प्रत्येक आधुनिक AI वर्कलोड में विशिष्ट बाधाओं को लक्षित करता है:
वेरा रुबिन NVL72 कोर कंप्यूट इंजन के रूप में कार्य करता है। प्रत्येक रैक में 72 रुबिन GPU और 36 वेरा CPU हैं जो NVLink 6 के माध्यम से जुड़े हैं, जो प्रति GPU 3.6 TB/s बैंडविड्थ प्रदान करता है—NVIDIA के अनुसार, पूरे वैश्विक इंटरनेट की तुलना में अधिक कुल बैंडविड्थ। सिस्टम सभी चार AI स्केलिंग लॉ को लक्षित करता है: प्रीट्रेनिंग, पोस्ट-ट्रेनिंग, टेस्ट-टाइम स्केलिंग, और एजेंटिक स्केलिंग।
Groq 3 LPX रैक लेटेंसी समस्या से निपटते हैं। SRAM-ओनली आर्किटेक्चर का उपयोग करते हुए प्रति रैक 256 लैंग्वेज प्रोसेसिंग यूनिट्स के साथ, ये NVL72 के साथ जोड़ी बनाकर वह प्रदान करते हैं जो NVIDIA का दावा है कि ब्लैकवेल की तुलना में ट्रिलियन-पैरामीटर मॉडल के लिए 35x अधिक टोकन और 10x अधिक राजस्व अवसर है।
वेरा CPU रैक एजेंट टेस्टिंग के लिए सैंडबॉक्स वातावरण प्रदान करते हैं। एक एकल रैक 22,500 से अधिक समवर्ती रीइन्फोर्समेंट लर्निंग वातावरण को बनाए रखता है—डिप्लॉयमेंट से पहले एजेंटिक AI आउटपुट को मान्य करने के लिए महत्वपूर्ण।
BlueField-4 STX रैक CMX कॉन्टेक्स्ट मेमोरी प्लेटफॉर्म के माध्यम से जिसे NVIDIA "AI-नेटिव स्टोरेज" कहता है, उसे पेश करते हैं। KV कैश को समर्पित हाई-बैंडविड्थ स्टोरेज में ऑफलोड करके, सिस्टम पारंपरिक दृष्टिकोणों की तुलना में 5x अधिक टोकन-प्रति-सेकंड और 5x बेहतर पावर एफिशिएंसी का दावा करता है।
Spectrum-6 SPX नेटवर्किंग रैक को-पैकेज्ड ऑप्टिक्स वाले 102.4 Tb/s स्विच के साथ सब कुछ एक साथ जोड़ते हैं।
टोकन इकोनॉमिक्स तर्क
NVIDIA इसे एक विशिष्ट बाजार वास्तविकता के इर्द-गिर्द फ्रेम करता है: टोकन उपभोग अब सालाना 10 क्वाड्रिलियन से अधिक है, और मानव-AI से AI-AI इंटरैक्शन में बदलाव उस वृद्धि को नाटकीय रूप से तेज करेगा। आधुनिक एजेंटिक सिस्टम KV कैश आवश्यकताओं का विस्तार करते हुए बड़े पैमाने पर रीजनिंग टोकन वॉल्यूम उत्पन्न करते हैं—बिल्कुल वही बाधा जिसे यह आर्किटेक्चर लक्षित करता है।
NVIDIA द्वारा उद्धृत थर्ड-पार्टी SemiAnalysis InferenceMax बेंचमार्क दिखाते हैं कि वर्तमान ब्लैकवेल सिस्टम पहले से ही H200 की तुलना में प्रति वाट 50x बेहतर प्रदर्शन और प्रति टोकन 35x कम लागत प्रदान करते हैं। वेरा रुबिन का लक्ष्य उस बढ़त को बढ़ाना है।
थर्मल और पावर इंजीनियरिंग
तीसरी पीढ़ी का MGX रैक आर्किटेक्चर पिछली पीढ़ियों की तुलना में 6x अधिक रैक-लेवल एनर्जी स्टोरेज (प्रति GPU 400 जूल) के साथ इंटेलिजेंट पावर स्मूथिंग पेश करता है। यह पीक करंट डिमांड को 25% तक कम करता है और बड़े बैटरी पैक की आवश्यकता को समाप्त करता है।
सभी रैक 45°C गर्म-पानी इनलेट तापमान पर संचालित होते हैं, जिससे कई जलवायु में डेटा सेंटर एंबिएंट एयर कूलिंग का उपयोग कर सकते हैं। NVIDIA का दावा है कि यह समान सुविधा पावर बजट में 10% अधिक रैक जोड़ने के लिए पर्याप्त पावर मुक्त करता है।
आगे देखते हुए
प्रारंभिक POD कॉन्फ़िगरेशन के अलावा, NVIDIA ने वेरा रुबिन अल्ट्रा NVL576 को आठ रैक में 576 GPU तक स्केलिंग करने का पूर्वावलोकन किया, और अगली पीढ़ी का Kyber आर्किटेक्चर प्रति रैक 144 GPU के साथ NVL1152 को लक्षित करता है। रोडमैप सुझाव देता है कि NVIDIA मल्टी-रैक NVLink डोमेन को AI इंफ्रास्ट्रक्चर के भविष्य के रूप में देखता है—न केवल बड़े GPU, बल्कि मौलिक रूप से अलग सिस्टम आर्किटेक्चर।
AI इंफ्रास्ट्रक्चर निवेश की योजना बना रहे उद्यमों के लिए, संदेश स्पष्ट है: AI कंप्यूट की अर्थव्यवस्था चिप-लेवल से फैसिलिटी-लेवल ऑप्टिमाइजेशन में बदल रही है। अब डेटा सेंटर बना रहे लोग वर्तमान पीढ़ी के सिस्टम और 2026 के अंत में वेरा रुबिन उपलब्धता की प्रतीक्षा के बीच विकल्प का सामना कर रहे हैं।
छवि स्रोत: Shutterstock- nvidia
- ai infrastructure
- vera rubin
- data centers
- enterprise ai


