专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
今天看啥  ›  专栏  ›  AINLP

以自注意力机制破局Transformer

AINLP  · 公众号  ·  · 2021-04-07 22:10

文章预览

各位好久不见,这段时间因工作项目加上家中大事,停更一段时间,细节略过不表。 本文针对Transformer进行重新梳理,针对其中要点附图详细讲解,按需取用! 1. Transformer架构解析 首先放出Transformer对应的架构图: Transformer完整架构 Transformer源自这篇论文“Attention Is All You Need”。本质上而言这个模型其实还是Seq2Seq系列模型,如上图所示,左边使用encoder对输入信息进行编码,然后右边使用decoder得到解码的输出结果。即: Seq2Seq (Transformer) = (Transformer) Encoder + (Transformer) Decoder 至于Transformer为何能取得比LSTM、RNN等模型更好的性能,很大一部分得益于自注意力机制的引入。接下来针对自注意力机制进行详细介绍。 2.自注意力机制详解 2.1 缘起 要介绍自注意力机制,首先还是 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览