NVIDIA 宣布 Rubin AI 運算平台進入量產,結合 Vera CPU 與 Rubin GPU,大幅降低推論成本約 10 倍。
繼Blackwell架構之後,NVIDIA在今年的CES 2026上正式宣布代號為「Rubin」的全新一代AI運算平台已經全面進入量產。NVIDIA執行長黃仁勳強調,Rubin平台的誕生是為了應對下一代AI工廠的需求,特別是針對代理型AI (Agentic AI)、混合專家模型 (MoE),以及長文本推理 (Long-context reasoning) 等複雜任務,透過所謂的「極致協同設計」 (Extreme Codesign),Rubin平台能將AI推論 (Inference) 的Token (詞元)生成成本降低10倍之多。
六大核心晶片:Vera CPU與Rubin GPU領軍
Rubin平台的核心由六款全新晶片組成,其中最受矚目的莫過於Rubin GPU與Vera CPU。其中,Rubin GPU採用台積電3nm製程打造,內建第三代Transformer Engine,其NVFP4 AI推論效能高達50 PFLOPS,是前代Blackwell架構的5倍,而在訓練效能上也有3.5倍的提升。
Vera CPU則是為了搭配強大的GPU所打造,NVIDIA強調此為針對AI推理設計的Arm架構CPU,具備88個客製化Olympus核心。與之前的Grace CPU相比,Vera CPU的效能翻倍,並且具備高達1.2TB/s的記憶體傳輸頻寬,能更有效率地處理大規模資料吞吐。
極速互連:NVLink 6與Spectrum-6
為了讓這些晶片能協同運作,NVIDIA推出了NVLink 6 Switch,提供每顆GPU高達3.6TB/s的傳輸頻寬,這對於訓練龐大的MoE模型至關重要。而在網路傳輸方面,則有 ConnectX-9 SuperNIC與Spectrum-6 乙太網路交換器,支援高達800Gb/s的端對端連接速度,確保數據在AI工廠內的高速流動。
DGX SuperPOD:AI 工廠的基礎設施
隨著晶片更新,NVIDIA的超級電腦架構DGX SuperPO也迎來了Rubin平台版本。
• DGX Vera Rubin NVL72:這是針對極致效能的機櫃級解決方案,一個機櫃內整合8個系統,共包含576顆Rubin GPU與36顆Vera CPU,透過NVLink 6進行串接,讓這 576顆Rubin GPU可以像一顆超大GPU運作,擁有統一的記憶體空間,特別適合處理超大型模型。
• DGX Rubin NVL8:針對需要彈性部署的企業,NVL8則維持了較小的液冷規格,並且搭配x86架構CPU,讓企業能更靈活地導入Rubin運算強大算力。
儲存與資安:BlueField-4 DPU加持
為了解決大模型推論時的KV Cache (鍵值快取) 瓶頸,NVIDIA推出基於BlueField-4 DPU的推理情境記憶儲存平台 (Inference Context Memory Storage Platform),這項技術能讓多個GPU高速共享上下文記憶體,將推論速度與能源效率提升5倍。
在資安方面,Rubin平台也整合了來自Armis、Check Point、F5等合作夥伴的資安方案,透過BlueField DPU進行硬體加速的即時防護,確保AI工作負載的安全性。
生態系支援:雲端巨頭全數入列
NVIDIA Rubin平台已經獲得了業界的廣泛支持。包括微軟、AWS、Google Cloud與甲骨文等雲端大廠都已宣布將導入Rubin系統。
其中,微軟將在其下一代「Fairwater」AI超級工廠中佈署Vera Rubin NVL72系統;而專注於AI算力的CoreWeave也將是首批採用者之一。


