主要观点总结
本文介绍了近期AI领域的新闻,特别是关于阿里发布的开源视频模型万相2.1的情况。文章提到了万相2.1的多个模型规格,包括文生和视频模型的不同规格,以及模型的使用方式和效果。作者对该模型的表现给予了高度评价,并提到阿里的整体AI策略和相关业务的蓬勃发展。
关键观点总结
关键观点1: 阿里发布开源视频模型万相2.1
近期AI领域新闻密集,其中阿里发布了开源视频模型万相2.1,该模型有多个规格,包括文生和视频模型。模型表现受到高度评价。
关键观点2: 万相2.1模型规格和使用方式
万相2.1包括不同规格的模型,使用方式包括在线免费使用、通过阿里云百炼接API使用以及本地化部署。作者详细介绍了如何使用该模型并提供了相关链接。
关键观点3: 万相2.1的表现和效果
作者在文章中分享了使用万相2.1的一些案例,包括语义理解、物理真实性和运动表现等方面,证明了该模型在AI视频领域的优秀表现。
关键观点4: 阿里的AI策略和业务蓬勃发展
作者提到阿里的整体AI策略和相关业务的蓬勃发展,并表达了对未来中国AI产业的信心。
文章预览
昨天的AI新闻有点太密集了,肝快废了。 凌晨2点半,Claude发3.7 Sonnet,凌晨5点半,阿里发了推理模型QwQ-Max的预览版,早上10点DeepSeek开源了一个DeepEP代码库,然后晚上10点20,阿里的视频模型万相2.1,也来了。 而且,正式开源。 2月25号是什么黄道吉日吗。。。 万相2.1开源链接在此: Huggingface的:https://huggingface.co/Wan-AI GitHub的:https://github.com/Wan-Video/Wan2.1 阿里,真的也是“源神”。 这次上线的有四个模型,文生和图生各俩。 文生视频模型有1.3B和14B两个规格。图生视频模型都是14B,分辨率一个480P一个720P。 这回比较让人惊喜的是,低配置的模型真的小,1.3B的模型,只需要8个G的显存就能跑了,也就是说,本地的4060都能跑得动了。 如果你有4090,跑一条5秒钟的480P视频的时间大概只要4分钟。 说实话,在年前的时候,万相2.1就已经上线通义万相了。 只
………………………………