文章预览
点击上方 “ 小白学视觉 ”,选择加" 星标 "或“ 置顶 ” 重磅干货,第一时间送达 ©作者 | 王耀霆 单位 | 中国人民大学 来源 | 量子位 PaperWeekly 让 AI 像人类一样借助多模态线索定位感兴趣的物体,有新招了!来自人大高瓴 GeWu-Lab、北邮、上海 AI Lab 等机构的研究人员提出 Ref-AVS(Refer and Segment Objects in Audio-Visual Scenes,视听场景下的指代分割),让 AI 能看、会听,更懂真实物理世界。相关论文已入选顶会 ECCV 2024。 论文标题: Ref-AVS: Refer and Segment Objects in Audio-Visual Scenes 论文链接: https://arxiv.org/abs/2407.10957 代码链接: https://gewu-lab.github.io/Ref-AVS/ 举个例子,在下面这张图中,机器如何准确定位真正在演奏乐器的人? 搞单打独斗肯定不行,但这正是已有研究正在做的(各自从视觉、文本和音频线索的角度出发): 视频对象分割(VOS,Video Object Segmen
………………………………