Microsoft 推出了一款名為 Maia 200 的新型人工智慧晶片,專門針對雲端運算工作負載。這款晶片在 Microsoft 發表首款 AI 晶片 Maia 100 兩年後推出,而 Maia 100 從未廣泛提供給雲端客戶使用。該公司表示,Maia 200 將觸及更多客戶,並在未來提供更廣泛的可用性。
Microsoft 宣布 Maia 200 可作為 Nvidia、Amazon 的 Trainium 和 Google 的 TPU 處理器的替代方案。Microsoft 雲端與 AI 執行副總裁 Scott Guthrie 表示,Maia 200 帶來「未來更廣泛的客戶可用性」。Microsoft 表示,Maia 200 代表其迄今部署的最高效推理系統。
開發者、學術界和 AI 實驗室可以申請 Maia 200 軟體開發套件的預覽版。該預覽版提供早期存取工具,用於在新晶片上建構和優化 AI 工作負載。Microsoft 表示,預覽版將擴大開源 AI 模型和企業使用案例的實驗範圍。
Microsoft 表示,由 Mustafa Suleyman 領導的超級智慧團隊將使用 Maia 200 處理內部和客戶工作負載。該公司也確認 Microsoft 365 Copilot 和 Microsoft Foundry 將在新晶片上運行。這些服務包括生產力軟體附加元件和用於建構大型 AI 模型的框架。
Microsoft 表示,雲端服務供應商面臨來自 Anthropic 和 OpenAI 等 AI 模型開發商日益增加的需求。資料中心營運商在管理能源和成本限制的同時,尋求更高的運算能力。在這個競爭環境中,企業致力於平衡效能與營運費用和能源使用。
Microsoft 表示,Maia 200 晶片採用台灣積體電路製造公司的 3 奈米製程。該公司表示,每台伺服器內部配置四顆 Maia 200 晶片,相互連接以提高吞吐量。Microsoft 解釋,該設計使用乙太網路線,而非 Nvidia 安裝中常見的 InfiniBand 標準。
該公司表示,在相同價格點上,Maia 200 的效能提高了 30%。Microsoft 表示,每顆 Maia 200 包含的高頻寬記憶體多於 AWS 的 Trainium 或 Google 的第七代 TPU。這種架構設計旨在支援大規模模型推理工作負載。
Microsoft 還表示,可以連接多達 6,144 顆 Maia 200 晶片以進一步擴展效能。該公司聲稱,這種方法有助於降低能源使用和總擁有成本。Microsoft 先前曾展示 Maia 100 可以在 2023 年運行 GitHub Copilot。
Microsoft 表示,將首先在其美國中部資料中心區域部署 Maia 200 晶片。該公司表示,晶片隨後將抵達美國西部 3 區。在這些初期部署之後,將進行其他全球部署。
這篇《Microsoft 發表第二代 AI 晶片以強化雲端能力》文章首次發表於 Blockonomi。


