注册
登录
专栏名称:
CVer
一个专注侃侃计算机视觉方向的公众号。计算机视觉、图像处理、机器学习、深度学习、C/C++、Python、诗和远方等。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
新熵
·
好利来大公子跨界做酒吧,新中式噱头能否持久?
·
2 天前
Supreme情报网
·
‼️突发:「Off-White」被卖!中国门 ...
·
2 天前
中欧商业评论
·
KEEP VS ...
·
4 天前
知乎日报
·
《山花烂漫时》凭什么深入人心?
·
4 天前
锌财经
·
340亿广州老板,抄底800亿永辉
·
4 天前
今天看啥
›
专栏
›
CVer
AAAI 2021最佳论文Runners Up!Transformer的归因探索!
CVer
·
公众号
· · 2021-04-19 09:03
文章预览
点击下方 卡片 ,关注“ CVer ”公众号 AI/CV重磅干货,第一时间送达 本文转载自:炼丹笔记 作者:一元,四品炼丹师 Self-Attention Attribution: Interpreting Information Interactions Inside Transformer(AAAI21) 论文:https://arxiv.org/abs/2004.11207 问题背景 在之前大家对于Transformer的理解都是,Transformer的成功得益于强大Multi-head自注意机制,从输入中学习token之间的依赖关系以及编码上下文信息。我们都很难 解释输入特性如何相互作用以实现预测的 。Attention计算得到的分数也并不能完美的解释这些交互作用,本文提出一种自我注意归因方法来解释Transformer内部的信息交互。我们以Bert为例进行研究。首先,我们利用自我注意归因来识别重要的注意头,其它注意头会随着边际效果的下降而被剪掉 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
新熵
·
好利来大公子跨界做酒吧,新中式噱头能否持久?
2 天前
Supreme情报网
·
‼️突发:「Off-White」被卖!中国门店都倒闭了..
2 天前
中欧商业评论
·
KEEP VS 华为运动健康:从用户价值到商业价值的“惊险一跃”
4 天前
知乎日报
·
《山花烂漫时》凭什么深入人心?
4 天前
锌财经
·
340亿广州老板,抄底800亿永辉
4 天前