专栏名称: LLM SPACE
每周高质量AI信息
今天看啥  ›  专栏  ›  LLM SPACE

大模型日报(1月20日 学术篇)

LLM SPACE  · 公众号  ·  · 2025-01-20 21:35
    

文章预览

我们希望能够搭建一个AI学习社群,让大家能够学习到最前沿的知识,大家共建一个更好的社区生态。 「奇绩大模型日报」知识库现已登陆飞书官方社区: https://www.feishu.cn/community/article/wiki?id=7355065047338450972 点击「订阅社区精选」,即可在飞书每日收到《大模型日报》每日最新推送 学术分析报告:ResearchFlow -- 奇绩F23校友的开发的深度研究产品,PC端进入RFlow的分析报告,可直接点击节点右侧的小数字展开节点,登录后可在节点上直接“询问AI”,进一步探索深度信息 如果想和我们空间站日报读者和创作团队有更多交流,欢迎扫码。 信号 01 关于 MoE 大模型负载均衡策略演进的回顾:坑点与经验教训 从 GShard 开始,稀疏专家(Sparse MoE)架构的出现揭示了通过“稀疏化”来实现超大规模模型的训练。其核心思想是,每个 token 只激活少数专家,而不是全 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览