Gradient發佈Echo-2分佈式RL框架,提升AI科研效率超10倍
框架核心特性
分佈式AI實驗室Gradient今日正式發佈Echo-2分佈式強化學習框架,通過在架構底層實現Actor與Learner的徹底解耦,成功將30B模型的強化學習(RL)訓練成本從4,500美元大幅降低。
成本與效率優化
- 將30B後訓練單次成本降至約425美元/9.5小時,相較以往大幅降低。
- 三平面架構支持即插即用,Lattica可在數分鐘內分發60GB以上的權重。
- 使用Parallax調度分佈式RTX5090訓練Qwen3-8B,相較集中式A100訓練,成本便宜36%且不發散。
技術目標
該框架旨在打破AI研究訓練效率壁壘,通過架構層解耦與異步RL(有界陳舊性)機制,顯著降低大模型後訓練成本,提升AI科研整體效率。
來源:https://www.panewslab.com/zh/articles/019c523d-be26-7501-91ca-22ca4ef412e1
