Gradient發佈Echo-2分佈式RL框架,提升AI科研效率超10倍

Gradient發佈Echo-2分佈式RL框架,提升AI科研效率超10倍

框架核心特性

分佈式AI實驗室Gradient今日發佈Echo-2分佈式強化學習框架,通過在架構層實現Learner與Actor的徹底解耦,結合異步強化學習(有界陳舊性),顯著降低大模型後訓練成本。

訓練成本與效率提升

  • 將30B參數模型的後訓練單次成本降至約425美元/9.5小時,相較此前成本大幅下降。
  • 三平面架構設計支持即插即用,Lattica可在數分鐘內分發60GB以上的模型權重。
  • 在使用Parallax調度分佈式RTX5090進行Qwen3-8B模型訓練時,相較集中式A100方案,成本降低36%,且未出現訓練發散問題。

發佈背景與目標

該框架旨在打破AI研究訓練效率壁壘,提升科研人員在大模型訓練過程中的效率與可行性,為AI科研提供更經濟、穩定的解決方案。

來源:https://www.panewslab.com/zh/articles/019c523d-be26-7501-91ca-22ca4ef412e1

返回頂端