文章预览
OpenAI Sora之后,大模型根据文/图生成视频的能力开始成为竞争热点。最近,快手可灵,Pika Labs,Stability AI甚至Luma AI都陆续有视频生成的新产品、新功能发布。 尝鲜的人愈多,大家愈发觉得,AI视频生成的可控性仍是最大难题。 专业团队尝试Sora时,曝光出来的生成结果可用率仅为1/300,就是因为生成结果不易精确控制! 因此,每当有新模型、新产品发布,我就希望快速测试一下视频生成的可控性又提高了多少。分享一个我自己快速测试文生视频可控性的小测试集。总共10个测试用例。每个用例后面,我用这两天热度很高的Luma Dream Machine根据英文提示生成了测试结果,并附加简评。 #01 测试目标:单场景,单主体,单一常见动作 中文提示:一位女孩在漂亮晚霞掩映的沙滩上跳芭蕾。 英文提示 : A young girl is dancing ballet on the beach under a beautiful sunset .
………………………………