在有報導稱 Meta 可能將其大部分 AI 工作負載轉移到 Google 的張量處理單元(TPUs)後,Nvidia 執行長黃仁勳已採取行動安撫投資者。
在最近的一次活動中,黃仁勳強調,即使競爭壓力加劇,Nvidia 在全球 AI 半導體市場仍然佔據「獨特地位」。
黃仁勳將 AI 計算領域描述為「極其龐大」且複雜,暗示即使 Meta 購買價值數十億美元的 TPUs,留給 Nvidia 的機會仍然廣闊。
他的言論是在 Nvidia 股票經歷動盪的一週後發表的,此前有報導稱 Meta 和 Google 正就涉及 Google 內部 AI 加速器的潛在交易進行深入討論,導致 Nvidia 股價短暫下跌。此後,Nvidia 的股價已經反彈。
Meta 在日益激烈的晶片競爭中的角色不容忽視。該公司最近將其 2025 年資本支出估計提高到了 700-720 億美元,預示著 2026 年將有更高的投資。這些支出中的大部分與用於大規模 AI 訓練和推理的計算基礎設施有關。
然而,儘管 Meta 業績強勁,市場反應謹慎。在支出公告後,股價下跌了超過 12%,分析師質疑如此巨大的投資是否會產生相應的回報。
與此同時,Google 正悄然成為 Meta 晶片雄心的主要受益者。Alphabet 報告稱,Google Cloud 收入同比大幅增加了 34%,在 2025 年第三季度達到了 151.5 億美元,這一增長主要與 AI 驅動的服務相關。如果 Meta 開始大量購買 TPUs,Google 的雲端基礎設施業務可能會獲得更大的提升。
向 Google 硬體的重大轉變將帶來遠超 Meta 的影響。更廣泛的機器學習社區嚴重依賴 Nvidia 的 CUDA 生態系統,該生態系統支持當今絕大多數的 AI 工作負載。
像 PyTorch/XLA 這樣的開源工具在實現 TPU 上的模型訓練方面取得了進展,只需最少的代碼修改。然而,工程師指出,遠離 CUDA 並不像翻轉開關那麼簡單。TPU 工作流程需要仔細的設備重新分配和懶惰張量執行的新方法,這與傳統 GPU 管道的操作排隊方式不同。
同時,跨硬體努力的浪潮正在興起。PyTorch/XLA 團隊正在將更多操作轉向代碼生成的內核,而像 vLLM 這樣的高吞吐量推理引擎開始提供實驗性 TPU 支持。這為雲端提供商提供新的整合工具和支持包開闢了道路,減少了願意從 Nvidia GPU 多元化的開發者的阻力。
本週的 Meta-Google 傳聞正好在 Nvidia 面對公眾審視為其 4.5 萬億美元估值辯護之際打擊了該公司。一份流傳給股票分析師並後來由 Bernstein 分享的備忘錄回應了包括投資者 Michael Burry 在內的知名批評者關於庫存積累和客戶付款風險的說法。
Nvidia 對這些描述提出異議,表示公開可獲得的數據不支持與歷史會計醜聞的比較。然而,該公司承認,其新的 Blackwell 晶片的毛利率較低,保修成本較高。
這篇文章《Nvidia CEO Downplays Threat as Meta–Google AI Chip Talks Intensify》首次發表於 CoinCentral。


