Gradient發佈Echo-2分佈式RL框架,提升AI科研效率超10倍

Gradient發佈Echo-2分佈式RL框架,提升AI科研效率超10倍

框架核心特性

分佈式AI實驗室Gradient今日正式發佈Echo-2分佈式強化學習框架,通過在架構底層實現Actor與Learner的徹底解耦,成功將30B模型的強化學習(RL)訓練成本從4,500美元大幅降低。

成本與效率優化

  • 將30B後訓練單次成本降至約425美元/9.5小時,相較以往大幅降低。
  • 三平面架構支持即插即用,Lattica可在數分鐘內分發60GB以上的權重。
  • 使用Parallax調度分佈式RTX5090訓練Qwen3-8B,相較集中式A100訓練,成本便宜36%且不發散。

技術目標

該框架旨在打破AI研究訓練效率壁壘,通過架構層解耦與異步RL(有界陳舊性)機制,顯著降低大模型後訓練成本,提升AI科研整體效率。

來源:https://www.panewslab.com/zh/articles/019c523d-be26-7501-91ca-22ca4ef412e1

返回頂端