Google 發表 TPU 8t 與 8i,AI 晶片走向訓練與推論分工
產品發布與市場意義
Google 週三(4/22)在 Cloud Next 大會上正式發表第 8 代張量處理器(Tensor Processing Unit,TPU),首度將 TPU 產品線拆分為訓練與推論兩種專用晶片,分別為TPU 8t與TPU 8i。此舉標誌著 Google AI 硬體戰略的重大轉向,旨在針對 AI 代理人(Agentic AI)所需的高效能運算與低延遲回應能力進行優化。
TPU 8t:專攻模型訓練
TPU 8t 專為大規模模型訓練設計,其效能相較前一代提升顯著。根據報導,TPU 8t 在大規模訓練下的性價比提升達 2.8 倍,每瓦效能較上一代提升逾一倍(達 124%)。該晶片採用 Virgo 網路架構,對於使用 TPU 8t 訓練超大型模型至關重要。在記憶體配置方面,TPU 8t 採用 216GB 高頻寬記憶體(HBM),並搭載 128MB 靜態隨機存取記憶體(SRAM)。
TPU 8i:優化推論與 AI 智能體
TPU 8i 則更適合推論任務(即運行 AI 模型)以及處理 AI 智能體,效能相較之前提升 80% 至 10 倍不等。為了滿足 AI 代理在即時思考與行動時所需的低延遲,TPU 8i 配備了 288GB HBM 記憶體,且每個運算單元整合約 1,152 顆晶片,記憶體容量為前一代 7 倍。高記憶體頻寬能有效降低推論延遲。
架構整合與技術細節
兩款晶片均整合了基於安謀架構(Amlogic)的 Axion CPU,以消除資料預處理延遲造成的主機側瓶頸。Google 同時透露,TPU 8t 與 TPU 8i 均運行在公司自研的 Axion ARM CPU 平臺上。此雙晶片策略搭配全新 Virgo Network 網路技術,預計將大幅降低推理成本並支撐 AI 智能體的規模化應用。
