資策會MIC:AI資料中心擴展瓶頸從算力轉向電力與散熱,基礎設施正面臨轉型變革
AI資料中心瓶頸從算力轉向電力與散熱
資策會MIC產業分析師郭思偉指出,過去以算力為核心的發展模式,正逐步轉為電力供應與散熱能力的瓶頸。隨著AI模型規模持續擴張,GPU與AI伺服器的功耗大幅上升,單一晶片從400瓦、700瓦到1,200瓦,這意味著不只是伺服器、機櫃設計改變,也對整體資料中心的電力與散熱架構造成衝擊。
電力與散熱帶來基礎設施極限挑戰
從晶片功耗飆升,到機櫃、機房、電網層級的連鎖壓力,AI資料中心正迎來新的電力與散熱管理挑戰。隨著GPU功耗不斷增加,AI資料中心正挑戰資料中心基礎設施的供電、散熱架構及水資源使用等極限,促使資料中心基礎設備正面臨轉變。
產業趨勢與未來發展方向
在GenAI、LLM熱潮下,全球正快速擴張AI資料中心,但AI資料中心為耗電、耗水怪獸,電力、散熱已成為擴張的瓶頸,挑戰傳統資料中心環境基礎設施的極限。
