今天看啥  ›  专栏  ›  机器学习研究组订阅

重磅开源!Twins:更高效的视觉Transformer主干网,完美适配下游检测、分割任务

机器学习研究组订阅  · 公众号  · AI  · 2021-05-17 19:56

文章预览

单位:美团、阿德莱德大学 Arxiv: http://arxiv.org/abs/2104.13840 Github:  https://github.com/Meituan-AutoML/Twins  (分类、分割代码及模型均已开源) 值得注意的是,Twins 直接涵盖了 CPVT 的代码,相当于 Twins 和 CPVT 同时开源。 Twins 代码 Github 截图 Twins 预训练模型 视觉注意力模型(Vision Transformer [1])已然是视觉领域的第一热点,近期工作如金字塔 Transformer 模型 PVT [2] ,Swin [3] 聚焦于将其应用于目标检测、分割等稠密任务。将 Vision Transformer 适配下游任务、高效地对计算模式进行重新设计成为当下研究的重点。 美团和阿德莱德大学合作的这篇文章 Twins 提出了两种新的 Transformer 架构,分别起名叫  Twins-PCPVT  和  Twins-SVT 。 第一种架构 Twins-PCPVT  通过将 PVT 中的位置编码(和 DeiT一样的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览