文章预览
AIGC Research 主编| 庄才林(Cailin Zhuang) 技术支持|胡耀淇(Yaoqi Hu) ————A2.1 Part———— Topic: Video Generation|Harnessing T2I, Progressive Autoregressive, Discrete Diffusion HARIVO: Harnessing Text-to-Image Models for Video Generation HARIVO 2024-10-10|Yonsei U, Adobe, UIUC, PSU, GivernyAI|ECCV 2024 |⭐️ 🟡 http://arxiv.org/abs/2410.07763v1 https://kwonminki.github.io/HARIVO/ 概述 本文提出了一种新颖的方法HARIVO, 旨在利用预训练的文本到图像(T2I)模型生成高质量的视频 。随着扩散模型在图像合成领域的成功,研究者们开始探索将这一技术应用于视频生成。 传统的文本到视频(T2V)模型往往需要对整个网络进行训练,这需要大量的数据和计算资源 ,且容易导致风格多样性的降低。为了解决这些问题, HARIVO采用了冻结T2I模型的参数,仅训练时间层,同时引入了映射网络和逐帧令牌的设计 。这
………………………………