文章预览
以下 文 章来源于微信公众号: 机器之心 作者: 机器之心 链接:https://mp.weixin.qq.com/s/VuUQMZ0hkm2rNHS0gKgeOA 本文仅用于学术分享,如有侵权,请联系 后 台作删文处理 导读 最近,Meta宣布推出新版的分割模型SAM2,能够在图像和视频中实时分割任意对象。继上一代SAM模型的成功后,SAM2进一步提升了图像分割的精度,并在视频分割性能上达到了行业领先水平,同时减少了人机交互时间。 还记得 Meta 的「分割一切模型」吗?这个模型在去年 4 月发布,被很多人认为是颠覆传统 CV 任务的研究。 时隔一年多,刚刚,Meta 在 SIGGRAPH 上重磅宣布 Segment Anything Model 2 (SAM 2) 来了。在其前身的基础上,SAM 2 的诞生代表了领域内的一次重大进步 —— 为静态图像和动态视频内容提供实时、可提示的对象分割,将图像和视频分割功能统一到一个强大的系统中。 SAM 2 可以分割
………………………………