DeepSeek代碼開源第二彈:DeepEP通信庫,優化GPU通信快訊
DeepSeek今日向公眾開源了DeepEP——第一個用于MoE模型訓練和推理的開源EP通信庫,DeepEP是一個用于MoE(混合專家)模型訓練和推理的EP(Expert Parallelism)通信庫,它為所有GPU內核提供高吞吐量和低延遲。
【TechWeb】2月25日消息,繼昨天開源Flash MLA后,DeepSeek今日向公眾開源了DeepEP——第一個用于MoE模型訓練和推理的開源EP通信庫。

據介紹,DeepEP是一個用于MoE(混合專家)模型訓練和推理的EP(Expert Parallelism)通信庫,它為所有GPU內核提供高吞吐量和低延遲,也稱為MoE調度和組合。該庫還支持低精度操作,包括FP8。
同時,DeepEP針對NVLink(NVLink是英偉達開發的高速互聯技術,主要用于GPU之間的通信,提升帶寬和降低延遲)到RDMA(遠程直接內存訪問,一種網絡數據傳輸技術?,用于跨節點高效通信)的非對稱帶寬轉發場景進行了深度優化,不僅提供了高吞吐量,還支持SM(Streaming Multiprocessors)數量控制,兼顧訓練和推理任務的高吞吐量表現。
對于對延遲敏感的推理解碼,DeepEP包含一組低延遲內核和純RDMA,以最大限度地減少延遲。該庫還引入了一種基于鉤子的通信計算重疊方法,該方法不占用任何SM資源。
DeepSeek稱,DeepEP的實現可能與DeepSeek-V3論文略有不同。
DeepSeek還列出了DeepEP的實際性能:
在H800(NVLink的最大帶寬約為160 GB/s)上測試常規內核,每臺設備都連接到一塊CX7 InfiniBand 400 Gb/s的RDMA網卡(最大帶寬約為50 GB/s),并且遵循DeepSeek-V3/R1預訓練設置(每批次4096個Tokens,7168個隱藏層單元,前4個組,前8個專家(模型),使用FP8格式進行調度,使用BF16格式進行合并)。

在H800上測試低延遲內核,每臺H800都連接到一塊CX7 InfiniBand 400 Gb/s的RDMA網卡(最大帶寬約為50 GB/s),遵循DeepSeek-V3/R1的典型生產環境設置(每批次128個Tokens,7168個隱藏層單元,前8個專家(模型),采用FP8格式進行調度,采用BF16格式進行合并)。

DeepEP運行環境要求:
Hopper GPU(以后可能支持更多架構或設備)
Python 3.8及以上版本
CUDA 12.3及以上
PyTorch 2.1及以上版本
NVLink用于內部節點通信
用于節點間通信的RDMA網絡
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。