文章预览
作者丨机器之心 来源丨机器之心 编辑丨极市平台 导读 首个用于实时、可提示的图像和视频对象分割的统一模型。 还记得 Meta 的「分割一切模型」吗?这个模型在去年 4 月发布,被很多人认为是颠覆传统 CV 任务的研究。 时隔一年多,刚刚,Meta 在 SIGGRAPH 上重磅宣布 Segment Anything Model 2 (SAM 2) 来了。在其前身的基础上,SAM 2 的诞生代表了领域内的一次重大进步 —— 为静态图像和动态视频内容提供实时、可提示的对象分割,将图像和视频分割功能统一到一个强大的系统中。 根据官网的试用案例,我测试了鸡哥酷炫的胯下运球,很显然即便鸡哥的运球技术已经达到如火纯青的境界,但是还是被SAM2.0分割并跟踪的死死的。 SAM 2 可以分割任何视频或图像中的任何对象 —— 甚至是它以前没有见过的对象和视觉域,从而支持各种不同的用例,而无需自定
………………………………