专栏名称: 集智书童
书童带你领略视觉前沿之美,精选科研前沿、工业实用的知识供你我进步与学习!
今天看啥  ›  专栏  ›  集智书童

一文看尽 2024 年主流注意力机制,各种魔改Attention !

集智书童  · 公众号  ·  · 2024-09-18 09:00

文章预览

注意力机制 已经成了模型设计的基础架构,现在模型里没个Attention都不好意思发出来。 从注意力机制发布到今天,学术界一直在对Attention进行各种魔改。魔改后的Attention能够 提升模型的表达能力 、 增强跨模态能力和可解释性 ,以及 优化模型大小与效率 。 最重要的一点,很多注意力模块都是 即插即用 的。我们可以在自己的模型里用学术大牛的注意力模块,这样再做实验写论文绝对是事半功倍了。 近期,包括 缩放点积注意力、多头注意力、交叉注意力、空间注意力、通道注意力 等在内的11种主流注意力机制都有许多创新研究。今天分享 112个11种主流注意力机制 的创新研究,最新更新到24年9月。最新的创新思路非常适合大家用在实验中! 112个11种主流注意力机制的创新研究,paper和代码都帮大家下载整理好了。欢迎扫码领取。 扫码领112个11种主 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览