专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
目录
相关文章推荐
今天看啥  ›  专栏  ›  AINLPer

谷歌 | 提出新型层设计:PEER,可对百万专家进行稀疏检索,超越密集前馈、稀疏MoE

AINLPer  · 公众号  ·  · 2024-07-10 22:27

文章预览

点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 释放进一步扩展 Transformer 的潜力,同时还可以保持计算效率。 标准 Transformer 架构中的前馈(FFW)层会随着隐藏层宽度的增加而导致计算成本和激活内存的线性增加。在大语言模型(LLM)体量不断增大的现在,稀疏混合专家(MoE)架构已成为解决此问题的可行方法,它将模型大小与计算成本分离开来。很多新兴的 MoE 模型都可以实现相同体量之上,更好的性能与更强大的表现。 最近发现的细粒度 MoE 扩展定律表明,更高的粒度可带来更好的性能。然而由于计算和优化方面的挑战,现有的 MoE 模型仅限于低数量专家。 本周二, Google DeepMind 的新研究引入了一种参数高效的专家检索机制,其利用乘积密钥技术从一百万个微型专家中进行稀疏检索 。 链接:https://arxiv.org/abs/2407.04153 该方法尝试通 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览