12 月 16 日,NVIDIA 同時宣布兩件事:發表 Nemotron 3 開源模型家族,以及併購開源工作負載管理系統 Slurm 的主要開發商 SchedMD。表面上看,一個是發表新模型,一個是收購軟體公司,似乎沒有直接關聯。但這兩個動作若放在一起看,揭示的是 NVIDIA 正在執行一項更宏大的策略:從單純的硬體供應商,轉型為掌控 AI 基礎設施全端(Full Stack)的平台提供者。
這個轉型的力道有多大?數據顯示,2025 年 NVIDIA 已成為 Hugging Face 平台上最大的開源貢獻者,提交了約 650 個模型和 250 個資料集。這個數字的意義在於:NVIDIA 已經不只是「賣 GPU 的硬體公司」,而是積極塑造開源 AI 生態系的主導者。
同一時間,另一個對比更加鮮明。Meta 的開源旗艦 Llama 4 表現平淡,甚至連訓練資料都不願提供給合作夥伴。當業界普遍認為開源模型已進入瓶頸期、大廠開始保留核心技術時,NVIDIA 的全面開放策略顯得格外反常。這種反常背後,藏著什麼樣的商業邏輯?
先看 Nemotron 3 本身。這個模型家族包含三種規模:Nano(30B)、Super(100B)和 Ultra(500B),採用混合 Mamba-Transformer 與 MoE 架構,支援 1M token 上下文長度。這些技術規格的實際意義是:Nano 適合邊緣裝置和單一任務,Super 針對多代理系統的協作場景,Ultra 則是處理複雜推理任務的旗艦級模型。
但技術細節之外,真正值得關注的是 NVIDIA 的開放程度。除了模型權重,NVIDIA 還公開了 2.5 兆 tokens 的預訓練資料集、完整的訓練方法(training recipes)、以及用於強化學習的 NeMo Gym 環境。這代表任何開發者都能重現 NVIDIA 的訓練過程,甚至基於相同的資料和方法訓練出自己的變體。
這種開放程度在業界幾乎是前所未見的。OpenAI 最後一次開源模型是 2019 年的 GPT-2,之後就轉向完全閉源;Meta 的 Llama 系列雖然開放權重,但保留了訓練資料的細節。
此時 NVIDIA 選擇全面透明,顯然有其他考量。
早期採用者名單可能能為我們提供線索,包括:Perplexity、ServiceNow、Palantir、CrowdStrike、Deloitte、EY 等企業級客戶。
這份名單的共同特徵是:這些都是需要可審計、可客製化、可本地部署的企業應用場景。消費型 AI 服務可以接受「黑盒子」模型,但企業級應用,特別是那些涉及敏感資料或受監管產業的應用必須能夠檢視模型的訓練過程和資料來源。NVIDIA 瞄準的正是這個市場。
這裡出現一個矛盾:NVIDIA 免費提供模型,怎麼賺錢?
答案藏在企業 AI 應用的實際運作方式中。根據產業分析,目前 76% 的企業 AI 應用採用「購買」而非「自建」模式。這個數據點出一個現實:多數企業不會從零開始訓練大型模型,成本太高。
NVIDIA 的策略在於:透過開源模型降低企業「起步」的門檻。企業可以免費取得 Nemotron 3 的模型權重和訓練資料,但要真正部署這些模型、進行客製化調整、或擴展到生產規模,仍然需要大量的 GPU 算力。
換句話說,NVIDIA 用「免費的模型」換取「付費的算力需求」。資料中心業務目前占 NVIDIA 總營收的 88%(2025 財年約 $115.19 billion),當更多企業因為開源模型而開始採用 AI,最終受惠的仍是 NVIDIA 的硬體銷售。
產業分析師 Zeus Kerravala 指出,NVIDIA 面對企業界三大挑戰:需要模型系統而非單一模型、「長思考」(long thinking) 的計算成本問題、以及「最後一哩」的領域客製化需求。Nemotron 3 的混合架構和多尺寸設計,正是針對這些痛點:企業可以根據不同任務選擇不同規模的模型,在成本和效能之間取得平衡。而這些選擇,最終都發生在 NVIDIA 的硬體平台上。
也就是說,NVIDIA 並不期待 Nemotron 3 取代 GPT-4 或 Claude 這類頂尖模型。相反地,NVIDIA 瞄準的是「混合策略」市場。Perplexity CEO Aravind Srinivas 的說法很能說明這點:「透過我們的 agent router,我們可以將工作負載導向最佳的微調開源模型(如 Nemotron 3 Ultra),或在任務需要時利用領先的專有模型的獨特能力。」
這種混合架構的好處是:企業可以用 Nemotron 3 處理大量的「日常任務」(客服、文件處理、資料分析),把昂貴的 GPT-4 API 預算留給真正需要頂尖推理能力的複雜任務。而這種架構的前提,是企業需要本地 GPU 來運行 Nemotron 3——這正是 NVIDIA 硬體銷售的來源。
但 NVIDIA 的算盤不只是賣硬體。TechNewsWorld 的分析直指核心:NVIDIA 真正的護城河是將其硬體產品與日益深化的軟體堆疊相結合。
這句話的意思是:當開發者習慣使用 NeMo、Megatron-Core、TensorRT 這套工具鏈來訓練和部署模型,他們建立的模型自然會針對 NVIDIA GPU 最佳化。即使未來出現性能相當的競爭硬體,開發者也很難遷移。因為整個開發流程、工具鏈、連團隊長期累積的 Know-how 和 Workflows 都已經與 NVIDIA 生態系深度綁定。
這就是為什麼 NVIDIA 願意開源 Nemotron 3 的所有細節。因為使用這些開源資源的開發者,必然要使用 NVIDIA 的軟體工具鏈。當全球數十萬開發者都習慣這套工具,CUDA 軟體生態系建立的技術壁壘,比任何單一硬體產品都更難以複製。
值得注意的是,這個策略可能是特別針對中國市場。這是因為中國晶片廠商正試圖建立自己的 GPU 生態系,NVIDIA 透過開源模型確保全球開發者(包括中國開發者)在技術選型時,已經預設使用 NVIDIA 的軟體工具。當模型訓練和部署都依賴 NVIDIA 的工具,硬體層面的競爭就變得困難得多。
這時候 SchedMD 併購的意義就清楚了。Slurm 是一套開源的工作負載管理系統,在 TOP500 超級電腦排行榜中,前 10 名與前 100 名系統有一半以上採用 Slurm。它的作用是:在擁有數千個 CPU 或 GPU 的大型叢集中,決定哪些任務應該分配到哪些運算節點、何時執行、如何調度資源。
NVIDIA 收購 Slurm 的開發商,代表其掌握了從工作負載管理到 GPU 調度的完整基礎設施層。AInvest 分析指出:透過同時控制軟體(Slurm)和硬體(Blackwell 架構),NVIDIA 確保了無縫的互通性,使其平台成為企業不可或缺的選擇。
具體來說:當企業使用 Nemotron 3 這類開源模型時,他們需要 Slurm 來管理訓練任務;Slurm 由 NVIDIA 控制,自然會針對 NVIDIA GPU 做最佳化;而 NVIDIA GPU 又是目前市場上效能最強的選擇。這形成了一個自我強化的循環。
NVIDIA VP Kari Briski 在分析師簡報會上的說法印證了這個邏輯:我們認為自己處於獨特位置,能服務廣大的開發者群體,他們需要完整的彈性來客製化模型,以建立專門的 AI。這種「完整彈性」的前提,是開發者使用 NVIDIA 提供的整套工具,從晶片、驅動程式、訓練框架、一路到叢集管理系統。
如果只看商業邏輯,NVIDIA 的策略已經足夠清晰。但開源策略背後還有地緣政治的考量,這讓整個布局更加複雜。
中國正以「AI for all」策略推動 DeepSeek、Alibaba 等開源模型的全球擴張。這個策略的目的不僅是要在技術上領先美國,更要建立中國技術的全球影響力:當全球開發者習慣使用中國的開源模型,中國就掌握了 AI 發展的話語權。與此同時,中國也在積極發展自己的 GPU 產業,試圖擺脫對 NVIDIA 的依賴。
NVIDIA CEO 黃仁勳對此高度警覺。在 10 月的 GTC 大會上,他警告:如果美國完全撤出中國市場,可能對中國軟體的全球滲透(permeates the world)「準備不足」。這句話的潛台詞是:中國可能在開源 AI 領域取得主導地位,到時候美國企業反而要依賴中國的技術體系。
NVIDIA 的回應是用更徹底的開源搶佔全球開發者社群。
當中國模型提供權重時,NVIDIA 連訓練資料和方法都公開;當中國晶片廠試圖建立替代生態系,NVIDIA 要確保全球開發者已經深度依賴其軟體體系。這是一場「卡位戰」,誰先拿下開發者的「心佔率」,就能掌握未來的市場。
同時,美國國內的監管環境也在變化。受管制產業——醫療、金融、國防——越來越要求 AI 系統必須可審計、可解釋。NVIDIA VP Kari Briski 直接點出這個需求:許多企業客戶無法部署或基於不透明原始碼的模型來建立業務。
這創造了一個市場機會。OpenAI、Anthropic 等公司提供的是閉源 API 服務,企業只能「信任」這些公司,但無法檢視模型的訓練過程。
相比之下,Nemotron 3 的完全開放滿足了合規要求。Invezz 的分析認為,在美國政府要求 AI 透明度、對中國實施出口管制的背景下,NVIDIA 將自己定位為「值得信賴的國內供應商」。這種定位可能為 NVIDIA 帶來更多政府合約和受管制產業的訂單。
這些動作加總起來,展現的是 AI 競爭典範的轉移。過去,競爭發生在「誰的模型更強」;現在,競爭轉向「誰的生態系更完整」。
Nemotron 3 的發表時機也值得玩味。Artificial Analysis 的評測顯示,Nemotron 3 Nano 在同參數規模的模型中表現居於前段班。當 Meta 的 Llama 4 未能延續前代的影響力,NVIDIA 趁機搶佔開源模型的領先位置。
中國晶片廠商則面臨技術和生態系的雙重挑戰。即使他們能製造出性能相當的 GPU(這本身已經很困難),他們還必須說服開發者放棄已經熟悉的 NVIDIA 工具鏈。當 NVIDIA 用開源模型綁定全球開發者時,這項工作將變得更加艱難。
值得觀察的是,Nemotron 3 Super 和 Ultra 預計在 2026 上半年推出,將採用 NVIDIA 的 4-bit NVFP4 訓練格式和 Blackwell 架構。這兩個更大規模的模型能否真正撼動企業市場,以及它們是否會維持同樣的開放程度,將是檢驗這項策略的關鍵指標。
如果 Super 和 Ultra 也維持完全開放,那說明 NVIDIA 對這個策略有長期承諾;如果開始保留部分技術,那可能表示 NVIDIA 認為生態系鎖定已經足夠,開始收割階段。
NVIDIA 的開源策略本質上是一場精密計算。用軟體築牆,讓競爭者難以複製生態系;用開源擴張,搶佔全球開發者社群;用透明度切入受管制的高價值市場。這三個目標環環相扣,共同指向一個終局:讓 NVIDIA 成為 AI 基礎設施的不可或缺者。
在 AI 競爭從「誰的模型更強」轉向「誰的生態系更完整」的當下,這可能比單純銷售 GPU 更具長期價值。開源不再只是技術社群的理念,已成為科技巨頭們的戰略工具。NVIDIA 的動作證明:在適當的商業設計下,開放可以比封閉更有效地建立壁壘。
責任編輯:Sisley
核稿編輯:Mia
本文初稿由 INSIDE 使用 AI 協助編撰,並經人工審校確認。加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員!
延伸閱讀:
NVIDIA Nemotron 3 懶人包:Mamba 架構、三種規格與 NeMo Gym 功能一次看
瑞典 AI 新創 Lovable 估值衝上 66 億美元,為何讓 Alphabet 與 Nvidia 同時出手?


