Nvidia在全球高階AI解決方案競賽中再次邁出重大步伐。該公司表示,其新款Rubin資料中心晶片已接近準備就緒,將於今年稍後推出,客戶很快就能開始測試。
Nvidia表示,所有六款Rubin晶片已從Nvidia的製造合作夥伴處送回。這些晶片已經完成多項關鍵測試程序,並按計劃提供給客戶使用。該公司指出,這項早期進展相當重要,因為AI公司和資料中心正競相取得更快速、更高效的硬體。
Nvidia執行長黃仁勳在拉斯維加斯消費電子展(CES)的主題演講中分享了這項最新消息。CES是全球最大的科技盛會之一,製造商會在會中發表新產品和創意。黃仁勳在科技公司競相開發下一代AI的快速發展競賽中表示:「AI競賽已經展開。」
他的評論顯示,Nvidia非常確信自己仍能維持全球第一大AI加速器製造商的地位。這些加速器是資料中心用於訓練和執行AI模型的特殊晶片,可為聊天機器人、影像辨識系統和先進機器人等工具提供動力。
Rubin是Nvidia最新的AI加速器,接續其上一代產品Blackwell。該公司表示,與Blackwell相比,Rubin在訓練AI模型方面快了3.5倍,在執行AI軟體方面快了5倍。訓練AI涉及教導模型從大量資料中學習,而執行AI則是指利用這些模型即時執行任務。
Rubin新增了一個擁有88核心的中央處理器(CPU)。核心是晶片中執行運算和處理資料的部分。這款新CPU的效能是其所取代晶片的兩倍,更適合處理更複雜的AI工作負載。Nvidia通常會在加州舉行的春季GTC大會上分享完整的產品細節。
這次釋出的資訊比以往更多。此舉被視為是在AI採用持續快速成長之際,讓消費者和開發人員持續關注Nvidia硬體的一種方式。黃仁勳本人也多次公開露面,推廣AI產品、合作關係和投資。Nvidia並非CES上唯一受到矚目的企業。競爭對手晶片製造商超微半導體(AMD)執行長蘇姿丰也預訂了主題演講,凸顯晶片市場的競爭日益激烈。
部分投資人擔心Nvidia面臨的競爭正在升溫。其他科技公司也在開發自己的AI晶片,因此很難判斷AI支出能否持續跟上。
然而,Nvidia一直保持樂觀,相信在雲端運算、企業和新興產業等需求的推動下,長期AI市場價值可能達到數兆美元。
Rubin硬體將用於Nvidia的DGX SuperPod,這是一款專為大規模AI工作設計的強大超級電腦。同時,客戶也能將Rubin晶片作為個別元件購買,讓他們能建構更靈活、更模組化的系統。
鑑於AI系統持續演進,效能的提升特別關鍵。現代AI越來越依賴專門模型的網路,這些模型不僅處理大量資料,還能分多個步驟解決問題。此類任務包括規劃、推理和決策。
Nvidia也強調,基於Rubin的系統運作成本將低於Blackwell系統。由於Rubin能以更少的元件達到相同的效果,資料中心可以節省能源和營運成本。
Microsoft、Google Cloud和Amazon Web Services(AWS)等主要雲端運算公司預計將成為今年下半年首批部署Rubin硬體的企業。這些公司目前占Nvidia驅動AI系統支出的大部分。
透過指導與每日想法提升您的策略 - 免費體驗我們的交易計畫30天


