机构投资者组成的社区,深度点评财经事件
今天看啥  ›  专栏  ›  Dots机构投资者社区

一文看懂Mamba,Transformer最强竞争者

Dots机构投资者社区  · 公众号  ·  · 2024-08-27 08:15

文章预览

本文转自微信公众号“机器之心”,作者:机器之心。 编辑:Panda Mamba  虽好,但发展尚早。 深度学习架构有很多,但近些年最成功的莫过于 Transformer,其已经在多个应用领域确立了自己的主导地位。 如此成功的一大关键推动力是注意力机制,这能让基于 Transformer 的模型关注与输入序列相关的部分,实现更好的上下文理解。但是,注意力机制的缺点是计算开销大,会随输入规模而二次增长,也因此就难以处理非常长的文本。 好在前段时间诞生了一种颇具潜力的新架构:结构化的状态空间序列模型(SSM)。该架构能高效地捕获序列数据中的复杂依赖关系,并由此成为 Transformer 的一大强劲对手。 这类模型的设计灵感来自经典的状态空间模型 —— 我们可以将其看作是循环神经网络和卷积神经网络的融合模型。它们可使用循环或卷积运算进行高效地 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览