注册
登录
专栏名称:
AIWalker
关注计算机视觉、图像处理、深度学习等领域的干货分享与前沿paper解读。AIWalker由具有多年算法研究与产品化落地经验的Happy运营,原创为主、同时会转载优秀解读文章。欢迎志同道合的小伙伴们加入一同学习进步。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
川大研究生
·
中华天府文化行 | 访武侯故迹,颂天府古韵
·
昨天
史事挖掘机
·
中国近代一支十万人的虎狼之师,为何突然消失? ...
·
3 天前
史事挖掘机
·
明朝皇室脉络盘点:朱标一脉
·
6 天前
今天看啥
›
专栏
›
AIWalker
HAFormer:融合 CNN 与 Transformer 的高效轻量级语义分割模型 !
AIWalker
·
公众号
· · 2024-07-17 22:24
文章预览
在语义分割任务中,卷积神经网络(CNNs)和Transformer都表现出了巨大的成功。人们已经尝试将CNN与Transformer模型集成在一起,以捕捉局部和全局上下文交互。然而,在考虑计算资源限制时,仍有提升的空间。 在本文中,作者介绍了HAFormer模型,该模型结合了CNN的分层特征提取能力与Transformer的全局依赖建模能力,以应对轻量级语义分割挑战。具体来说,作者设计了一个分层感知像素激活(HAPE)模块,用于自适应多尺度局部特征提取。 在全局感知建模过程中,作者设计了一个高效Transformer(ET)模块,简化了传统Transformer中的二次计算。此外,一个相关性加权融合(cwF)模块有选择地合并不同的特征表示,显著提高了预测准确性。 HAFormer以最小的计算开销和紧凑的模型尺寸实现了高性能,在Cityscapes上的mIoU达到了74.2%,在CamVid测试数据集上的mIoU达到了71 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
川大研究生
·
中华天府文化行 | 访武侯故迹,颂天府古韵
昨天
史事挖掘机
·
中国近代一支十万人的虎狼之师,为何突然消失?其实原因很简单
3 天前
史事挖掘机
·
明朝皇室脉络盘点:朱标一脉
6 天前