专栏名称: 江大白
专业有趣的AI内容平台,关注后回复【算法】,获取45家大厂的《人工智能算法岗江湖武林秘籍》
今天看啥  ›  专栏  ›  江大白

视觉Transformer与Mamba的创新改进,完美融合(附论文及源码)

江大白  · 公众号  ·  · 2024-07-17 08:00

文章预览

以下文章来源于微信公众号:AI视界引擎 作者:AI引擎 链接:https://mp.weixin.qq.com/s/nVRA0JlkOmSUXpaub1VPTg 本文仅用于学术分享,如有侵权,请联系后台作删文处理 导读 最近,一种 基于状态空间结构的 Mamba模型在学术届爆火 ,该模型实现了线性时间复杂度,并在不同建模任务中优于或匹配Transformers。为了提升 长距离空间依赖关系的建模能力,作者提出混合Mamba-Transformer架构( MambaVision )。实验表明, 该模型在 ImageNet-1K、MS COCO和ADE20K数据集上达到了最先进的SOTA性能! 论文链接: https://arxiv.org/abs/2407.08083 代码链接: https://github.com/NVlabs/MambaVision 作者提出了一种新颖的混合Mamba-Transformer架构,称为MambaVision,这是专门为视觉应用量身定制的。作者的核心贡献包括重新设计Mamba公式,以增强其高效建模视觉特征的能力。 此外,作者还对将视觉Transformer(ViT)与Ma ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览