文章预览
单位:美团、阿德莱德大学 Arxiv: http://arxiv.org/abs/2104.13840 Github: https://github.com/Meituan-AutoML/Twins (分类、分割代码及模型均已开源) 值得注意的是,Twins 直接涵盖了 CPVT 的代码,相当于 Twins 和 CPVT 同时开源。 Twins 代码 Github 截图 Twins 预训练模型 视觉注意力模型(Vision Transformer [1])已然是视觉领域的第一热点,近期工作如金字塔 Transformer 模型 PVT [2] ,Swin [3] 聚焦于将其应用于目标检测、分割等稠密任务。将 Vision Transformer 适配下游任务、高效地对计算模式进行重新设计成为当下研究的重点。 美团和阿德莱德大学合作的这篇文章 Twins 提出了两种新的 Transformer 架构,分别起名叫 Twins-PCPVT 和 Twins-SVT 。 第一种架构 Twins-PCPVT 通过将 PVT 中的位置编码(和 DeiT一样的
………………………………