2月28日,国内AI明星公司DeepSeek为期五天的“开源周”告一段落。其于2月24日正式发动,方案开源5个代码库,旨在与全球开发者社区共享其在通用人工智能(AGI)范畴的研究进展。
据悉,在这五天里,DeepSeek先后开源了FlashMLA、DeepEP、DeepGEMM、优化并行战略DualPipe和EPLB以及面向全数据拜访的推进器3FS等多个项目。其间FlashMLA是专为英伟达Hopper GPU优化的高效MLA解码内核;DeepEP是首个用于混合专家模型(MoE)练习和推理的开源EP通讯库;而DeepGEMM则供给支撑给V3/R1的练习和推理。此外,还有优化并行战略DualPipe和EPLB以及面向全数据拜访的推进器3FS等项目也得到了发布。
这些代码库将协助加快GPU功能提高、改进MoE模型间交流功率、提高大规模核算使命功能以及增强硬件资源利用率等方面,并有望促进AI技能在更广泛范畴应用上获得打破。