top of page

Google AI 逆襲中?TPU 跟 GPU 有什麼不一樣?為何台灣產業鏈可能連帶大漲

  • 作家相片: L L
    L L
  • 14小时前
  • 讀畢需時 5 分鐘

近兩日的重點新聞:Google母公司 Alphabet 股價大漲,市值逼近 4 兆美元;台積電、聯發科、台光電、金像電、創意、旺矽、精測、英業達、聯亞、光聖等 12 家台廠,被市場視為「Google TPU 伺服器概念股」,部分已在供應鏈之中、部分則被預期有機會承接相關訂單而連帶受惠。


Google 股價創新高、台廠跟著動起來,這不是單純「題材炒股」,背後其實反映了幾個關鍵事實:

  • Alphabet 股價創歷史新高,靠的是 AI 能見度——特別是最新的 Gemini 3 模型與自研 TPU。

  • Google 宣布 Gemini 3 完全在自家 TPU 上訓練,等於對外宣示:「我不用 NVIDIA 也能練出頂尖模型」。

  • 更重要的是:有外電與分析指出,Meta 正在評估 2026 先租借試用、2027 起直接購買 Google TPU,交易規模上看數十億美元


這對台灣來說,等於從晶圓製造、關鍵板材、測試設備,到組裝、光通訊,整條 TPU 伺服器鏈上都可能有台廠的身影。



ree


為什麼 AI 會「造」出一整條可以賺大錢的產業鏈?

AI產業鏈:「算力 → GPU/TPU → 伺服器 → 台灣供應鏈」,我們用最簡單的方式來理解:


生成式 AI 在做什麼?

  • GenAI 就像是一個「超巨大圖書館」,根據豐富的案例資料,經過數學、統計來「預測下一個字(或下一格圖片像素)是什麼」。

  • 這些模型動輒就是上千億參數,訓練一次要跑好幾週甚至更久。


算力從哪裡來?從「AI 伺服器」來

  • 裡面塞滿 GPU 或 TPU 這種高階運算晶片。

  • 再把上千台伺服器透過光纖與網路串成資料中心。


所以,每當有一間大廠說:「要訓練一個更厲害的 AI 模型」,就代表:

  • 要蓋新的資料中心;

  • 要買一堆 AI 伺服器;

    這讓後面整條硬體供應鏈就有生意可以做,這也是台灣的商機所在。



GPU vs TPU?搞懂兩大主角
GPU:原本只是跑電玩的顯卡,意外變成了 AI 的主力

圖形處理器(GPU,Graphics Processing Unit) 本來只是讓電腦畫 3D、跑遊戲畫面的顯卡,但因為它擅長「大量重複的數學運算」,後來就被用來跑機器學習深度學習,成為AI模型的主力。例如:NVIDIA,H100、H200 就是現在資料中心最愛用的 GPU。


NVIDIA GPU 成為 AI 主流的重要原因之一,是它自家開發的 CUDA 軟體生態,讓工程師可以更容易寫程式、校準效能,這是其他廠商一時很難追上的優勢。


你可以把 GPU 當成:「泛用型高階工作站」,大部分任務都能做。


TPU:Google 為了 AI 特地打造的專用武器

張量處理器(TPU,Tensor Processing Unit) 是 Google 自己設計的 ASIC 晶片

什麼是 ASIC?Application-Specific Integrated Circuit 顧名思義就是「為特定用途量身打造的晶片」,是專門為了跑AI設計的,它特別擅長:

  • 大型語言模型的訓練(LLM Training):

  • 以及該模型上線後的推論(Inference)

在相同任務下,功耗和成本上比 GPU 更有優勢。


而Google 的策略就是:將自家的AI模型(PaLM、Gemini 、最新的 Gemini 3)全部在自家 TPU 上訓練與部署。


項目

GPU

TPU

設計出發點

遊戲、圖形、科學運算

為機器學習/深度學習量身打造

性質

泛用型,什麼都能跑

專用型,專精 AI 任務

代表公司

NVIDIA、AMD

Google(設計)+台積電(代工)

使用情境

研究機構、企業的 AI 伺服器

Google 生態系服務、Google Cloud 客戶、未來 Meta

優勢

軟體生態成熟(CUDA)、彈性強

在部分 AI 任務上更省電、更便宜、效能更好



Google 為什麼突然改走 TPU 路線?
降低對 NVIDIA 的依賴

當大家都需要搶 NVIDIA GPU,價格與供貨都掌握在對方手上;自己設計 TPU,雖然前期投資巨大,但:

  • 長期下來,每一次訓練模型的成本可以大幅下降

  • 不會被市面上單一供應商綁架。


「Full Stack 全棧策略」,打造完整「AI 一條龍」的生態護城河

Google 現在手上的組合是:

  1. 自家晶片(TPU)

  2. 自家模型(Gemini 3)

  3. 自家雲端(Google Cloud)

  4. 自家應用(Search、YouTube、Gmail、Android…)

等於從硬體到軟體、從雲端到終端都自己掌控,別人很難完全複製。


TPUs 不只自己用,還能賣給對手

市場消息指出:Meta 正和 Google 商談,2026 年先租借 TPU 算力、2027 年起直接買晶片,規模達數十億美元,等於 Google 若每年出貨 TPU ,光 AI 晶片這一塊就能對營收與獲利帶來可觀貢獻,進一步推升估值。


換句話說:Google 想做的不只是「AI 服務提供商」,還想當「AI 基礎供應商」。




台灣在哪裡?一條潛在的 TPU 伺服器的台灣供應鏈地圖
晶圓製造:台積電——不可替代的心臟

無論是NVIDIA 高階 GPU,還是Google TPU 採用的先進製程,全由台積電代工。


晶片設計協力:聯發科、世芯-KY、創意
  • 聯發科:若如傳言,與 Google 合作開發新世代 TPU,是少數有這種規模合作的 IC 設計廠。

  • 世芯-KY、創意:專為國際大客戶做 ASIC 代工設計,有機會打入TPU 平台。


也就是說,「Google 出題目 → 晶片設計協力幫你畫電路 → 台積電幫你做出來。」


高階 PCB/CCL:台光電、金像電、精成科、欣興
  • PCB(印刷電路板):讓晶片彼此有「道路」可以傳輸訊號。

  • CCL(銅箔基板):PCB 的原料。


AI 伺服器的 PCB 層數高、要求嚴苛,因此這些廠商被點名為 Google TPU 伺服器高階 PCB 與 CCL 的主力供應商,當AI 伺服器越多、越高階,這些做板子的公司訂單也就越多。


測試與驗證:旺矽、精測
  • 旺矽:擁有多種高階探針卡產品線,可為 TPU 驗測階段主要供應商之一。

  • 精測:同樣深耕高階 IC 測試與測試介面。


AI 晶片越複雜,測試的價值越高,錯一顆就是大錢,因此每顆 TPU 在出貨之前,都要先經過嚴格的電性與功能測試


整機組裝:英業達、勤誠
  • 英業達:被點名為第六代 TPU 的第二大供貨廠商,負責 AI 伺服器的整機設計與組裝。

  • 另外,勤誠等機殼與結構件廠,也開始因 TPU 機殼、水冷設計而受惠。


直白地說,就是負責把所有零件組成一台能上線的超級 AI 主機。


光通訊與高速連接:聯亞、光聖
  • 聯亞、光聖:被點名為 TPU 高速傳輸與光通訊的重要供應商。


就類似於資料中心的神經系統,承載龐大的網路流量,在伺服器之間快速進行資料交換。



結論:GPU 代表的是「靠外部供應商的 AI 算力」;TPU 代表的是「雲端巨頭自己蓋發電廠」。Google 選擇後者,而台灣正好是這座「發電廠」從圖紙到設備的一條龍代工基地。

未來是否能真正化為實質經濟效益,可長期觀察:

  • Google AI 策略能否持續成功

  • TPU 是否能拓展更多客戶應用(例如 Meta未來動向)

  • 台灣能不能在這條產業鏈上守住技術領先與產能優勢

Copyright © 2022   IP² Launchpad , Taiwan Innovation Finder, i2i @Startup Terrace All Rights Reserved.

bottom of page