文章预览
今早,CV圈又炸了! 时隔一年多,Meta再次重磅推出「分割一切」2.0基础模型——Segment Anything Model 2(SAM 2)! 与初代SAM最大不同在于,前者主要在图像领域大放异彩,而SAM 2直接冲进了视频分割领域。 这是目前第一个用于图像和视频中实时、快速对象分割的模型。 同样,这个模型依然开源,代码和权重都已在Apache 2.0下发布,完整的数据集SA-V也在CC BY 4.0许可下发布(可以用于商业性质的修改或分发),任何人都可以使用它来构建自己的体验。 仓库地址:https://github.com/facebookresearch/segment-anything-2 继上周开源Llama 3.1 405B模型之后,Meta再次开源,简直就是要把开源进行到底。 刚刚小扎在SIGGRAPH上和老黄对谈时,也带来了SAM 2的视频demo,由自家农场上的牛友情出镜。 同时,官网上放出了看起来更加「高大上」的demo。 可以看到,在零样本的前提下,SAM 2
………………………………