Multiverse Computing 推動其壓縮 AI 模型進入主流
簡介與技術背景
Multiverse Computing 透過壓縮來自 OpenAI、Meta、DeepSeek 與 Mistral AI 等主要 AI 實驗室的模型,成功將大型語言模型的記憶體使用量降低至原本的 7% 以下,並大幅減少參數數量,同時維持模型性能。
產品與服務發布
公司已推出專屬應用程式「CompactifAI」,讓使用者可在無需網路的情況下,將 AI 模型直接運行於裝置端,並透過智慧路由、隱私保護與能源效率設計,提升使用體驗。
此外,Multiverse Computing 也公開了 API 接口,讓開發者能更廣泛地取得這些壓縮模型,並應用於各種場景。
商業與發展目標
公司已宣佈籌集 2.15 億美元資金,用於擴展其技術,目標是讓壓縮 AI 模型更普及,並計畫在未來一年內開放更多壓縮模型的原始碼,涵蓋程式合成、資料檢索等任務。
未來展望
根據公司表示,其壓縮模型在特定任務上的表現甚至超越原始版本,挑戰了傳統對「模型大小與效能」之間關係的認知,為未來 AI 的部署與普及提供新藍圖。
