Google AI 逆襲中?TPU 跟 GPU 有什麼不一樣?為何台灣產業鏈可能連帶大漲
- L L
- 14小时前
- 讀畢需時 5 分鐘
近兩日的重點新聞:Google母公司 Alphabet 股價大漲,市值逼近 4 兆美元;台積電、聯發科、台光電、金像電、創意、旺矽、精測、英業達、聯亞、光聖等 12 家台廠,被市場視為「Google TPU 伺服器概念股」,部分已在供應鏈之中、部分則被預期有機會承接相關訂單而連帶受惠。
Google 股價創新高、台廠跟著動起來,這不是單純「題材炒股」,背後其實反映了幾個關鍵事實:
Alphabet 股價創歷史新高,靠的是 AI 能見度——特別是最新的 Gemini 3 模型與自研 TPU。
Google 宣布 Gemini 3 完全在自家 TPU 上訓練,等於對外宣示:「我不用 NVIDIA 也能練出頂尖模型」。
更重要的是:有外電與分析指出,Meta 正在評估 2026 先租借試用、2027 起直接購買 Google TPU,交易規模上看數十億美元。
這對台灣來說,等於從晶圓製造、關鍵板材、測試設備,到組裝、光通訊,整條 TPU 伺服器鏈上都可能有台廠的身影。

為什麼 AI 會「造」出一整條可以賺大錢的產業鏈?
AI產業鏈:「算力 → GPU/TPU → 伺服器 → 台灣供應鏈」,我們用最簡單的方式來理解:
生成式 AI 在做什麼?
GenAI 就像是一個「超巨大圖書館」,根據豐富的案例資料,經過數學、統計來「預測下一個字(或下一格圖片像素)是什麼」。
這些模型動輒就是上千億參數,訓練一次要跑好幾週甚至更久。
算力從哪裡來?從「AI 伺服器」來
裡面塞滿 GPU 或 TPU 這種高階運算晶片。
再把上千台伺服器透過光纖與網路串成資料中心。
所以,每當有一間大廠說:「要訓練一個更厲害的 AI 模型」,就代表:
要蓋新的資料中心;
要買一堆 AI 伺服器;
這讓後面整條硬體供應鏈就有生意可以做,這也是台灣的商機所在。
GPU vs TPU?搞懂兩大主角
GPU:原本只是跑電玩的顯卡,意外變成了 AI 的主力圖形處理器(GPU,Graphics Processing Unit) 本來只是讓電腦畫 3D、跑遊戲畫面的顯卡,但因為它擅長「大量重複的數學運算」,後來就被用來跑機器學習與深度學習,成為AI模型的主力。例如:NVIDIA,H100、H200 就是現在資料中心最愛用的 GPU。
NVIDIA GPU 成為 AI 主流的重要原因之一,是它自家開發的 CUDA 軟體生態,讓工程師可以更容易寫程式、校準效能,這是其他廠商一時很難追上的優勢。
你可以把 GPU 當成:「泛用型高階工作站」,大部分任務都能做。
TPU:Google 為了 AI 特地打造的專用武器張量處理器(TPU,Tensor Processing Unit) 是 Google 自己設計的 ASIC 晶片。
什麼是 ASIC?Application-Specific Integrated Circuit 顧名思義就是「為特定用途量身打造的晶片」,是專門為了跑AI設計的,它特別擅長:
大型語言模型的訓練(LLM Training):
以及該模型上線後的推論(Inference)
在相同任務下,功耗和成本上比 GPU 更有優勢。
而Google 的策略就是:將自家的AI模型(PaLM、Gemini 、最新的 Gemini 3)全部在自家 TPU 上訓練與部署。
項目 | GPU | TPU |
設計出發點 | 遊戲、圖形、科學運算 | 為機器學習/深度學習量身打造 |
性質 | 泛用型,什麼都能跑 | 專用型,專精 AI 任務 |
代表公司 | NVIDIA、AMD | Google(設計)+台積電(代工) |
使用情境 | 研究機構、企業的 AI 伺服器 | Google 生態系服務、Google Cloud 客戶、未來 Meta |
優勢 | 軟體生態成熟(CUDA)、彈性強 | 在部分 AI 任務上更省電、更便宜、效能更好 |
Google 為什麼突然改走 TPU 路線?
降低對 NVIDIA 的依賴當大家都需要搶 NVIDIA GPU,價格與供貨都掌握在對方手上;自己設計 TPU,雖然前期投資巨大,但:
長期下來,每一次訓練模型的成本可以大幅下降;
不會被市面上單一供應商綁架。
「Full Stack 全棧策略」,打造完整「AI 一條龍」的生態護城河Google 現在手上的組合是:
自家晶片(TPU)
自家模型(Gemini 3)
自家雲端(Google Cloud)
自家應用(Search、YouTube、Gmail、Android…)
等於從硬體到軟體、從雲端到終端都自己掌控,別人很難完全複製。
TPUs 不只自己用,還能賣給對手市場消息指出:Meta 正和 Google 商談,2026 年先租借 TPU 算力、2027 年起直接買晶片,規模達數十億美元,等於 Google 若每年出貨 TPU ,光 AI 晶片這一塊就能對營收與獲利帶來可觀貢獻,進一步推升估值。
換句話說:Google 想做的不只是「AI 服務提供商」,還想當「AI 基礎供應商」。
台灣在哪裡?一條潛在的 TPU 伺服器的台灣供應鏈地圖
晶圓製造:台積電——不可替代的心臟無論是NVIDIA 高階 GPU,還是Google TPU 採用的先進製程,全由台積電代工。
晶片設計協力:聯發科、世芯-KY、創意聯發科:若如傳言,與 Google 合作開發新世代 TPU,是少數有這種規模合作的 IC 設計廠。
世芯-KY、創意:專為國際大客戶做 ASIC 代工設計,有機會打入TPU 平台。
也就是說,「Google 出題目 → 晶片設計協力幫你畫電路 → 台積電幫你做出來。」
高階 PCB/CCL:台光電、金像電、精成科、欣興PCB(印刷電路板):讓晶片彼此有「道路」可以傳輸訊號。
CCL(銅箔基板):PCB 的原料。
AI 伺服器的 PCB 層數高、要求嚴苛,因此這些廠商被點名為 Google TPU 伺服器高階 PCB 與 CCL 的主力供應商,當AI 伺服器越多、越高階,這些做板子的公司訂單也就越多。
測試與驗證:旺矽、精測旺矽:擁有多種高階探針卡產品線,可為 TPU 驗測階段主要供應商之一。
精測:同樣深耕高階 IC 測試與測試介面。
AI 晶片越複雜,測試的價值越高,錯一顆就是大錢,因此每顆 TPU 在出貨之前,都要先經過嚴格的電性與功能測試。
整機組裝:英業達、勤誠英業達:被點名為第六代 TPU 的第二大供貨廠商,負責 AI 伺服器的整機設計與組裝。
另外,勤誠等機殼與結構件廠,也開始因 TPU 機殼、水冷設計而受惠。
直白地說,就是負責把所有零件組成一台能上線的超級 AI 主機。
光通訊與高速連接:聯亞、光聖聯亞、光聖:被點名為 TPU 高速傳輸與光通訊的重要供應商。
就類似於資料中心的神經系統,承載龐大的網路流量,在伺服器之間快速進行資料交換。
結論:GPU 代表的是「靠外部供應商的 AI 算力」;TPU 代表的是「雲端巨頭自己蓋發電廠」。Google 選擇後者,而台灣正好是這座「發電廠」從圖紙到設備的一條龍代工基地。
未來是否能真正化為實質經濟效益,可長期觀察:
Google AI 策略能否持續成功
TPU 是否能拓展更多客戶應用(例如 Meta未來動向)
台灣能不能在這條產業鏈上守住技術領先與產能優勢
