专栏名称: 脑机接口社区
国内领先的脑机接口自媒体和服务平台,旨在促进脑机接口研究和应用之间的合作及成果转化,为脑机接口领域的工作者提供一个专业的资讯发布、学术交流、成果展示及脑机科普平台。
今天看啥  ›  专栏  ›  脑机接口社区

清华团队革新MoE架构!像搭积木一样构建大模型,提出新型类脑稀疏模块化架构

脑机接口社区  · 公众号  ·  · 2024-11-05 09:19

文章预览

探索更高效的模型架构, MoE是最具代表性的方向之一。 MoE架构的主要优势是利用稀疏激活的性质,将大模型拆解成若干功能模块,每次计算仅激活其中一小部分,而保持其余模块不被使用,从而大大降低了模型的计算与学习成本,能够在同等计算量的情况下产生性能优势。 然而,此前像MoE等利用稀疏激活性质的研究工作,都认为大模型需要在预训练阶段就额外引入模块化结构约束。 如今,来自清华的一项最新研究打破了以上思维定式,并将MoE架构进行了革新。 具体而言,研究人员受启发于人脑高效的稀疏模块化架构,在论文《Configurable Foundation Models: Building LLMs from a Modular Perspective》中提出了一种类脑高效稀疏模块化架构: Configurable Foundation Model 。 该架构将大模型的模块拆分为预训练阶段产生的涌现模块(Emergent Brick)与后训练阶段产生的定制 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览