文章预览
©作者 | 王耀霆 单位 | 中国人民大学 来源 | 量子位 让 AI 像人类一样借助多模态线索定位感兴趣的物体,有新招了!来自人大高瓴 GeWu-Lab、北邮、上海 AI Lab 等机构的研究人员提出 Ref-AVS(Refer and Segment Objects in Audio-Visual Scenes,视听场景下的指代分割),让 AI 能看、会听,更懂真实物理世界。相关论文已入选顶会 ECCV 2024。 论文标题: Ref-AVS: Refer and Segment Objects in Audio-Visual Scenes 论文链接: https://arxiv.org/abs/2407.10957 代码链接: https://gewu-lab.github.io/Ref-AVS/ 举个例子,在下面这张图中,机器如何准确定位真正在演奏乐器的人? 搞单打独斗肯定不行,但这正是已有研究正在做的(各自从视觉、文本和音频线索的角度出发): 视频对象分割(VOS,Video Object Segmentation): 通常以第一帧中的对象掩码作为参考,指导后续帧中特定对象的分割(严重依赖于
………………………………