专栏名称: 量子位
վ'ᴗ' ի 追踪AI行业和技术动态,这里更快一步!关注我们,回复“今天”,更多大新闻等你来发现
今天看啥  ›  专栏  ›  量子位

清华团队革新MoE架构!像搭积木一样构建大模型,提出新型类脑稀疏模块化架构

量子位  · 公众号  · AI  · 2024-11-01 16:33
    

文章预览

CFM团队 投稿 量子位 | 公众号 QbitAI 探索更高效的模型架构, MoE是最具代表性的方向之一。 MoE架构的主要优势是利用稀疏激活的性质,将大模型拆解成若干功能模块,每次计算仅激活其中一小部分,而保持其余模块不被使用,从而大大降低了模型的计算与学习成本,能够在同等计算量的情况下产生性能优势。 然而,此前像MoE等利用稀疏激活性质的研究工作,都认为大模型需要在预训练阶段就额外引入模块化结构约束。 如今,来自清华的一项最新研究打破了以上思维定式,并将MoE架构进行了革新。 具体而言,研究人员受启发于人脑高效的稀疏模块化架构,在论文《Configurable Foundation Models: Building LLMs from a Modular Perspective》中提出了一种类脑高效稀疏模块化架构: Configurable Foundation Model 。 该架构将大模型的模块拆分为预训练阶段产生的涌现模块(Emerg ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览