专栏名称: GiantPandaLLM
专注于机器学习、深度学习、计算机视觉、图像处理等多个方向技术分享。团队由一群热爱技术且热衷于分享的小伙伴组成。我们坚持原创,每天一到两篇原创技术分享。希望在传播知识、分享知识的同时能够启发你,大家一起共同进步(・ω<)☆
目录
相关文章推荐
今天看啥  ›  专栏  ›  GiantPandaLLM

SGLang的Expert Parallel特性解读

GiantPandaLLM  · 公众号  · 3D  · 2025-01-11 22:14
    

主要观点总结

SGLang实现了Expert Parallel(EPMoE),这是其率先在开源推理框架中实现的。SGLang通过修改上层接口和底层实现,特别是利用GroupedGemmRunner类进行矩阵乘法,并实现了EPMoE类和其Forward方法,实现了类似EP MoE训练时的步骤。SGLang EP MoE Kernel通过预重排序和两次Group GEMM,以及两次重排序,最终得到最终输出。EPMoE和MoE EP训练流程的区别在于,EPMoE在推理时通过优化All2All流程来降低通信成本。SGLang EPMoE计算流程中最耗时的Group GEMM尚未使用FalshInfer的优化版本,因此可能效率不高。

关键观点总结

关键观点1: SGLang实现Expert Parallel(EPMoE)

SGLang是开源推理框架中率先实现EPMoE的。

关键观点2: 上层接口和底层实现修改

通过修改上层接口和底层实现,特别是利用GroupedGemmRunner类进行矩阵乘法,并实现了EPMoE类和其Forward方法。

关键观点3: EPMoE计算流程

通过预重排序和两次Group GEMM,以及两次重排序,得到最终输出。

关键观点4: EPMoE和MoE EP训练流程的区别

EPMoE在推理时通过优化All2All流程来降低通信成本。

关键观点5: EPMoE效率问题

SGLang EPMoE计算流程中最耗时的Group GEMM尚未使用FalshInfer的优化版本,可能效率不高。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照