Google拋「降本核彈」TurboQuant 以極限壓縮減少逾8成AI記憶體用量 加快運算速度最高8倍 記憶體族群連日血崩
技術核心與成效
Google發表全新AI記憶體壓縮技術「TurboQuant」,透過極限壓縮技術,將大型語言模型(LLM)運行時的快取記憶體(KV Cache)佔用壓縮至原本的六分之一,記憶體用量減少至少6倍,相當於節省超過8成。
該技術在不影響模型準確性的前提下,使AI推理速度提升最高達8倍,且無需任何預訓練或微調,即可實現高效壓縮。
市場影響與產業反應
消息一出,引發開發者社群熱議,並導致美股記憶體族群連日下跌,市場憂心記憶體廠將喪失「強勢定價權」,美、臺、日、韓記憶體產業股價大幅下挫,出現嚴重賣壓。
相關報導指出,Google的TurboQuant技術解決了傳統壓縮技術產生的「記憶體雜訊(Overhead)」問題,其核心專利包含「極座標量化(PolarQuant)」技術,大幅提升壓縮效率。
來源與延伸資訊
- Yahoo股市:谷歌丟出AI「降本核彈」 記憶體霸權恐被軟體顛覆
- 鉅亨網:Google TurboQuant連日血洗記憶體族群美光威騰電子慘崩
- Threads:谷歌黑科技又來了Google 推出的TurboQuant
- Substack:Google Research 發表TurboQuant 的語言模型殺死了記憶體?
- CTEE:話題》Google TurboQuant震撼記憶體需求消失中?業界專業解析
- 聯合新聞網:Google新演算法引爆記憶體股賣壓市場擔心晶片業定價權被削弱
- 世界新聞:Google新壓縮演算法「TurboQuant」嚇趴記憶體引爆類股賣壓
- Facebook:旺宏為何殺至跌停? Google 發表新壓縮演算法技術「TurboQuant」
- Instagram:推理速度提升8 倍,並且「零精準度損失」
