华创证券:DeepSeek开源周发布五大AI基础优化方案
创始人
2025-03-03 19:00:50
0

财中社3月3日电事项:

2025年2月24日至2025年2月28日,DeepSeek举行为期五天的“开源周”,连续开源五个软件库,旨在以完全透明的方式与全球开发者社区分享其在通用人工智能(AGI)领域的研究进展。五个软件库向业界展示了一套重塑AI基础设施效率的全景方案,涵盖底层加速解码、专家并行通信、核心矩阵运算、分布式训练的流水线优化、数据处理系统的构建,共同构筑了一个面向大规模AI的高性能基石。

华创证券发表评论:

显存的“节流阀”:FlashMLA是一种专为NVIDIAHopper架构GPU优化的高效注意力解码内核,旨在提升大规模语言模型(LLM)在推理阶段的性能,尤其在处理可变长度序列时表现突出。FlashMLA能自行调配计算资源,通过动态资源分配优化显存使用,在H800集群上达到3000GB/s的内存限制性能和580TFLOPS的计算限制性能,实现了3倍显存利用率提升。

通信的“智能交通系统”:DeepEP是首个用于MoE(混合专家模型)训练和推理的开源EP通信库,它解决了MoE的通信瓶颈,支持优化的全对全通信模式,使数据能够在各个节点间高效传输。

矩阵运算的“编译器”:DeepGEMM作为矩阵乘法加速库,为V3/R1的训练和推理提供支持。DeepGEMM采用了DeepSeek-V3中提出的细粒度scaling技术,将FP8引入GEMM内核,仅用300行代码就实现了简洁高效的FP8通用矩阵乘法。DeepGEMM支持普通GEMM以及专家混合(MoE)分组GEMM,在HopperGPU上最高可达到1350+FP8TFLOPS(每秒万亿次浮点运算)的计算性能,在各种矩阵形状上的性能与专家调优的库相当,甚至在某些情况下更优,且安装时无需编译,通过轻量级JIT模块在运行时编译所有内核。

并行训练的“指挥”:DualPipe和EPLB旨在解决大模型分布式训练中的并行调度和负载均衡问题。DualPipe是一种用于V3/R1训练中计算与通信重叠的双向管道并行算法,通过实现向前与向后计算通信阶段的双向重叠,将硬件资源利用率提升超30%,减少资源浪费。EPLB是一种针对V3/R1的专家并行负载均衡器。基于混合专家(MoE)架构,它通过冗余专家策略复制高负载专家,并结合启发式分配算法优化GPU间的负载分布,减少GPU闲置现象。

AI专属的分布式文件系统:3FS是一个专为AI训练和大数据处理设计的高性能并行分布式文件系统,能实现高速数据访问,提升AI模型训练和推理的效率。性能方面,3FS在180节点集群中实现了6.6TiB/s的聚合读取吞吐量;在25节点集群的GraySort基准测试中达到3.66TiB/min的吞吐量;每个客户端节点在KVCache查找时可达到40+GiB/s的峰值吞吐量。

相关内容

热门资讯

物理学陷入停滞——进步主义神话... 当今的物理学家需要抛弃那个极具吸引力的神话——他们正在揭示我们宇宙的隐藏现实。 浏览物理学科普书籍...
从“数字化”到“数智化”(观象... 从“数字化”到“数智化”,一字之变,体现出我国牢牢把握人工智能机遇,体系化推进人工智能产业创新和赋能...
10万次Claude真实对话洞... IT之家 11 月 26 日消息,Anthropic 昨日(11 月 25 日)发布研究报告,通过分...
AI技术应用越广泛,越要明确边... 发展科技的初心和落点都是服务于人,服务于国家和社会。让安全和便捷成为AI技术应用的一体两面,成为技术...
【多彩新论】警惕碎片化传播的负... 注意力不集中,看书听讲说话容易走神,刷手机却停不下来……数字时代的碎片化传播,已成为我们获取资讯的主...
原创 1... 神舟二十二飞船成功发射,代号“天宫应急1号”,并且也圆满完成了中国空间站任务对接,整个任务全面成功了...
工信部:启动为期两年的卫星物联... C114讯 11月26日消息(颜翊)昨日,工业和信息化部正式印发《关于组织开展卫星物联网业务商用试验...
华为Mate80全系降价背后 华为需要通过更亲民的定价,来从iPhone手上抢更多的市场份额。 文|游勇 编|石兆 作为华为旗下最...
亚洲第一!我国自主研制,海试成... ◎ 科技日报记者 都芃 25日,记者从中交天津航道局有限公司获悉,当天下午,新一代超大型耙吸挖泥船“...
一加总裁:第五代骁龙8由一加高... 【CNMO科技消息】11月26日,一加中国区总裁李杰在社交平台透露,已受邀出席当天下午举行的高通“第...