专栏名称: 小白学视觉
本公众号主要介绍机器视觉基础知识和新闻,以及在学习机器视觉时遇到的各种纠结和坑的心路历程。
今天看啥  ›  专栏  ›  小白学视觉

ECCV 2024 | 全新SOTA,人大、北邮等联合提出多模态分割新方法

小白学视觉  · 公众号  ·  · 2024-09-04 10:05

文章预览

点击上方 “ 小白学视觉 ”,选择加" 星标 "或“ 置顶 ” 重磅干货,第一时间送达 ©作者 |  王耀霆 单位 |  中国人民大学 来源 |  量子位 PaperWeekly 让 AI 像人类一样借助多模态线索定位感兴趣的物体,有新招了!来自人大高瓴 GeWu-Lab、北邮、上海 AI Lab 等机构的研究人员提出 Ref-AVS(Refer and Segment Objects in Audio-Visual Scenes,视听场景下的指代分割),让 AI 能看、会听,更懂真实物理世界。相关论文已入选顶会 ECCV 2024。 论文标题: Ref-AVS: Refer and Segment Objects in Audio-Visual Scenes 论文链接: https://arxiv.org/abs/2407.10957 代码链接: https://gewu-lab.github.io/Ref-AVS/ 举个例子,在下面这张图中,机器如何准确定位真正在演奏乐器的人? 搞单打独斗肯定不行,但这正是已有研究正在做的(各自从视觉、文本和音频线索的角度出发): 视频对象分割(VOS,Video Object Segmen ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览