當 NVIDIA 的 H100 與 B200 成為全球最珍稀的資源,台灣作為「硬體故鄉」,我們究竟留住了多少算力?台積電製造了全球超過九成的先進 AI 晶片,NVIDIA 的 H100、B200 都得靠台灣生產;但如果你今天真想完全 100% 在台灣訓練 AI 模型,我們有哪些選擇?門檻在哪裡?價格大概是多少?
台灣目前最知名的算力資源是 NVIDIA 的超級電腦 Taipei-1。Taipei-1 座落於高雄亞灣區,在 2024 年 6 月的全球超級電腦排名中位列第 38 名,是台灣首度進入全球算力排名的超級電腦(2025 年 11 月全球 TOP500 超級電腦排名上已經落至 80 名)。
不過,Taipei-1 的算力分配中只有 25% 開放給學術界與產業界申請,而且這 25% 是免費的政府資源,必須透過經濟部的「大 A+ 計畫」提案申請,有審查、有梯次、有時間限制。
根據最新一期的徵案公告,每個 DGX 專案的使用時間大約六周,OVX 專案則是十二周。更重要的是,這些算力明確禁止用於產生營收的商業用途,例如雲端服務或挖礦。換句話說,Taipei-1 適合學研單位做前瞻研究、新創團隊做概念驗證、企業研發部門測試新想法,但如果你想拿它來訓練一個準備上線營運的商用模型,似乎距離還很遙遠。這也意味著,企業若要追求實質的商用產出,必須轉向民間的商用算力池,而這正是門檻與價格戰的開始。
政府統計顯示,從 2024 年 7 月開放申請以來,已有 52 組團隊運用 Taipei-1 進行自駕技術、智慧醫療、晶片設計、大型語言模型與數位孿生等應用開發。這個數字說明了需求確實存在,但同時也暗示了僧多粥少的現實。
鴻海則在去年科技日宣布,與 NVIDIA 合作在高雄建置的算力中心將升級採用 NVIDIA 最新一代的 Blackwell GB200 NVL72 平台,這套系統透過 NVLink 交換器技術,將 72 顆 GPU 連結成一顆巨大的邏輯 GPU,號稱將成為台灣速度最快、規模最大的 AI 算力中心,預計今年完工。這個消息讓業界振奮,但至今尚未有明確訊息說明這座算力中心是否會對外開放租用,或者主要仍是服務鴻海集團內部的研發需求。
為什麼大型算力中心都往南部跑?關鍵在於「電力基礎設施」與「綠電取得」。南部電力餘額較為充裕,加上太陽能與離岸風電綠電登陸點集中在中南部,對於這些「吃電怪獸」來說,能源成本是選址的關鍵考量。高雄與台南的土地成本也比雙北低得多,蓋一座動輒需要 20 MW 電力以上的資料中心,土地與廠房的支出同樣是重要因素。
對於多數企業來說,從頭訓練一個大型語言模型既不切實際也不划算。更務實的做法是拿現成的開源模型,用自家的專業資料進行微調(fine-tuning),打造出符合特定需求的專屬模型。這個市場的門檻正在快速降低,台智雲是其中最積極的玩家。
台智雲的前身是國家高速網路與計算中心的商用化團隊,在 2021 年獨立成為華碩集團旗下的子公司。這個背景讓它擁有其他業者難以複製的優勢:7 年以上的超級電腦建置與營運經驗,曾經參與打造台灣杉 2 號,在 2018 年登上全球 TOP500 第 20 名、Green500 第 10 名。
台智雲的主力產品是 AFS(AI Foundry Service),概念上有點像台積電的晶圓代工模式:企業只要準備好資料,就可以在台智雲的平台上進行模型微調,不需要自己採購昂貴的 GPU 伺服器、不需要煩惱機房散熱、不需要養一整個 MLOps 團隊。AFS Platform 負責模型微調,AFS Cloud 負責推論部署,再搭配台智雲自行開發的繁體中文大型語言模型 FFM(Formosa Foundation Model),形成一套完整的服務。
計價方式採用隨用隨付,根據實際使用的 GPU 運算資源或 tokens 吞吐量計算。台智雲的官方說法是「從幾千元到幾萬元都有」,強調比起自建的門檻低很多。作為參考,第三方業者的公開報價顯示,租用一整組含 8 顆 NVIDIA HGX H100 80G 的算力節點,月租金大約落在 50 萬至 75 萬台幣之間。這個價格聽起來驚人,但換算成單張卡的時薪,其實與國際大廠的公有雲報價相去不遠,差別在於本地業者通常要求較長的租約。
另一個選項是國網中心直營的服務。配合政府「晶創台灣」十年計畫的推進,國網中心在 2025 年正式啟動了代號「晶創 26」的新一代超級電腦建置案(亦即 Nano4 系統)。這不僅是台灣目前運算密度最高的系統,更領先全台大規模導入了 NVIDIA GB200 NVL72 架構。產官學研各界皆可透過 iService 平台申請,是進行大規模生成式 AI 訓練與前瞻科學研究的首選環境。
算力的問題,有時候其實是機房的問題。最常見的狀況是某間大廠去年採購了一批 AI 伺服器,想要訓練預測性維護的模型。機器到貨之後才發現,公司現有的機房根本撐不住這些「吃電怪獸」——電力不夠、散熱不足、地板承重也不行。最後只好花了大半年時間找外部機房,中間還因為一家業者臨時跳票而延誤專案。
這個故事在過去兩年不斷重演。傳統的 IDC 機房設計是為了一般伺服器,每個機櫃的電力負載大約 2-10 kW,地板承重大約每平方公尺 1000 公斤,散熱靠氣冷就能搞定。但新一代的 AI 伺服器完全是另一個等級:NVIDIA 的 GB200 機櫃可以吃到 120 kW 以上的電力,重量超過 1500 公斤,散熱必須靠水冷才能應付。
是方電訊看準了這個缺口。這家中華電信的子公司在 2021 年砸下 35 億元,在內湖興建「聯雲智能資料中心」(LY2),專門為 AI 伺服器設計。2024 年第二季正式商用以來,已經吸引多家雲端服務商與金融業者進駐。
LY2 的核心賣點是「三高三快」。三高指的是高電力(單機櫃支援 10 到 150 kW)、高承載(樓板載重每平方公尺達 2000 公斤)、高散熱(同時支援氣冷與水冷方案)。三快則是進駐快(兩周內可啟用)、連線快(整合台灣最大的網際網路交換中心 TPIX)、服務快(專業團隊即時支援)。
最吸引企業目光的是「拎包入住」服務。傳統上,企業要在外部機房部署 AI 伺服器,光是設計與施工就要花上好幾個月。是方的方案讓企業只要帶著伺服器來,就可以直接入住已經準備好水冷管線與高電力配置的機櫃。這對於已經採購設備、急著上線的企業來說,省下的時間就是省下的成本。
中華電信本身也在布局邊緣算力。身為台灣電信龍頭,中華電信擁有全台最密集的 IDC 機房與海纜登陸點,正在推動「邊緣 AI」的概念——把推論服務部署在更靠近終端用戶的位置,降低延遲。對於需要即時回應的應用場景,例如智慧客服或自動駕駛,這種分散式的架構比集中在一座大型資料中心更有優勢。
不過我們得說實話,對於很多台灣企業來說,最常用的 GPU 取得管道仍然是國際公有雲。Google Cloud、AWS、Microsoft Azure 都在台灣設有 region,提供 GPU 虛擬機的租用服務。這些平台的優勢是彈性與透明:想用多少就租多少,價格公開在網站上,即開即用,用完就停。對於需求波動大、或者還在實驗階段的企業來說,這種模式比起簽長約租本地機房更為划算。
遠傳電信與緯謙科技則選擇了另一條路。這兩家公司與微軟深度合作,主打「混合雲」的算力調度,鎖定的客群是正在進行數位轉型的製造業。概念上是讓企業可以把敏感資料留在地端,同時彈性調用雲端的 GPU 資源進行運算,兼顧資安與效率。
另外翔耀實業(Ubilink)也值得關注。這家由正崴集團投資的公司,座落於土城的 Ubilink 算力中心,在 2024 年底的全球 TOP500 排名中便以第 31 名的成績驚艷業界,不僅大幅超越了 NVIDIA Taipei-1,更是台灣目前最強大的「商用」算力池,並提供成熟的訂閱式租賃模式。
把所有的點連起來看,台灣的 AI 算力正在形成一個有趣的地理格局:北部做研發,南部做訓練。台北與新竹仍然是模型微調的中心。這裡有最密集的軟體人才、最多的新創公司、最便利的商業機能。企業的 AI 團隊需要頻繁迭代、快速實驗,這些工作適合在人才聚落附近進行,用相對輕量的算力就能完成。
高雄與台南則逐漸成為大規模訓練的基地。電力充裕、土地便宜、綠電可及,這些結構性的優勢讓南部更適合放置那些吃電又吃空間的超大型算力中心。從 Taipei-1 到鴻海的新算力中心,從南科的雲端計算園區到各家電信商的南部布局,趨勢已經相當明顯。
這種南北分工也帶來一個附加的好處:地緣韌性。把算力資源分散在不同區域,可以降低單一區域斷電或天災導致國家 AI 基礎設施癱瘓的風險。在地緣政治緊張的年代,這種備援思維或許不是多慮。
核稿編輯:Claire
加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員!
延伸閱讀:


