文章预览
作者 | VincentLee 编辑 | 极市平台 点击下方 卡片 ,关注“ 自动驾驶Daily ”公众号 戳我-> 领取近15个自动驾驶方向路线 >> 点击进入→ 自动驾驶Daily技术交流群 微信扫描以下二维码, 『自动驾驶之心知识星球』 , 国内最专业的技术和求职交流社区, 和3500人一起卷赢 导读 本文介绍了北大研究团队提出的VL-SAM模型,这是一个完全无训练的开放式检测分割模型,通过结合视觉-语言模型和Segment-Anything模型,使用注意力图作为提示来解决开放式物体检测和分割任务,在长尾实例分割数据集和边缘案例物体检测数据集上表现出良好的性能。 论文: Training-Free Open-Ended Object Detection and Segmentation via Attention as Prompts 论文地址: https://arxiv.org/abs/2410.05963 创新点 提出了一个无需训练框架 VL-SAM ,将广义物体识别模型(即视觉-语言模型)与广义物体定位模型(
………………………………