专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

【NeurIPS2024】通过分解编码和条件控制增强文本到视频生成中的运动效果

数据派THU  · 公众号  · 大数据  · 2024-11-19 17:00
    

文章预览

来源:专知 本文 约1000字 ,建议阅读 5 分钟 我们提出了一种新颖的框架,称为 分解运动(DEMO) ,该框架通过将文本编码和条件控制分解为内容和运动组件来增强T2V生成中的运动合成。 尽管文本到视频(T2V)生成技术已经取得了进展,制作具有真实运动的视频仍然具有挑战性。当前模型通常产生静态或动态变化极少的输出,未能捕捉文本中描述的复杂运动。这个问题源于文本编码中的内部偏差,这些偏差忽视了运动,并且T2V生成模型的条件机制不足。为了解决这个问题,我们提出了一种新颖的框架,称为 分解运动(DEMO) ,该框架通过将文本编码和条件控制分解为内容和运动组件来增强T2V生成中的运动合成。我们的方法包括一个用于静态元素的内容编码器和一个用于时间动态的运动编码器,以及单独的内容和运动条件控制机制。关键是,我们引 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览