定期分享机器学习领域原创文章,公众号内容涵盖了机器学习算法和python数据分析等文章,目前监督学习方法的文章应有尽有,非监督学习的原创文章一直在更新,欢迎机器学习爱好者和从业者的加入,互相学习,共同成长。
今天看啥  ›  专栏  ›  机器学习算法那些事

Transformer代码完全解读!

机器学习算法那些事  · 公众号  ·  · 2024-06-24 14:06

文章预览

作者:安晟 & 闫永强,Datawhale成员 本篇正文部分 约 10000字 ,分模块解读并实践了Transformer,建议 收藏阅读 。 2017年谷歌在一篇名为《Attention Is All  You  Need》的论文中,提出了一个基于attention(自注意力机制)结构来处理序列相关的问题的模型,名为Transformer。 Transformer在很多不同nlp任务中获得了成功,例如:文本分类、机器翻译、阅读理解等。在解决这类问题时,Transformer模型摒弃了固有的定式,并没有用任何CNN或者RNN的结构,而是使用了Attention注意力机制,自动捕捉输入序列不同位置处的相对关联,善于处理较长文本,并且该模型可以高度并行地工作,训练速度很快。 本文将按照Transformer的模块进行讲解,每个模块配合 代码+注释+讲解 来介绍,最后会有一个玩具级别的序列预测任务进行实战。 通过本文,希望可以帮助大家,初探Transformer的原理和 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览