专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
今天看啥  ›  专栏  ›  极市平台

MoE也有Scaling Law,「百万专家」利用率近100%!DeepMind华人挑战MoE极限

极市平台  · 公众号  ·  · 2024-07-15 22:00
    

文章预览

↑ 点击 蓝字  关注极市平台 来源丨新智元 极市导读   MoE已然成为AI界的主流架构,不论是开源Grok,还是闭源GPT-4,皆是其拥趸。然而,这些模型的专家,最大数量仅有32个。最近,谷歌DeepMind提出了全新的策略PEER,可将MoE扩展到百万个专家,还不会增加计算成本。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿 如果你熟悉当前LLM的主流架构,混合专家(MoE)技术想必是老朋友之一。有人甚至会说,MoE是使大模型崛起的关键因素之一。 开源的Mixtral、DBRX、Grok等模型都使用了MoE,而且根据Soumith Chintala等大佬的推测,GPT-4也是一个规模为8×220B的MoE模型。 类似GPT-4,多数MoE模型都会将专家数量限制在较少数量,一般不会超过16或32。 然而,DeepMind研究科学家Xu Owen He最近就在一篇独立发表的论文中,提出了一种全新的方法—— PEER(参数高效专家检索 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览