文章预览
摘要 只通过文本提示,无需查看任何图像,就能训练生成模型生成特定领域的图像吗? 换句话说:可以“盲目”地训练图像生成器吗? 利用大规模对比语言图像预训练 (CLIP) 模型的语义能力,我们提出了一种文本驱动的方法,该方法允许将生成模型转移到新的领域,而无需收集任何图像。 我们表明,通过自然语言提示和几分钟的训练,我们的方法可以使生成器适应具有多种风格和形状的众多领域。 值得注意的是,许多这样的修改对于现有方法来说是困难的,甚至是完全不可能实现的。 我们在广泛的领域中进行了一系列广泛的实验。 这些实验证明了我们方法的有效性,并表明我们的模型保留了使生成模型对下游任务具有吸引力的潜在空间结构。 1 引言 0 生成对抗网络 (GAN) [17] 以其前所未有的能力通过语义丰富的潜在空间捕获和建模图
………………………………