专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

生成扩散模型漫谈:少走捷径,更快到达

PaperWeekly  · 公众号  · 科研  · 2024-08-02 22:35
    

文章预览

©PaperWeekly 原创 · 作者 |  苏剑林 单位 |  科学空间 研究方向 |  NLP、神经网络 如何减少采样步数同时保证生成质量,是扩散模型应用层面的一个关键问题。其中, 《生成扩散模型漫谈:DDIM = 高观点DDPM》 介绍的 DDIM 可谓是加速采样的第一次尝试。 后来, 《生成扩散模型漫谈:一般框架之SDE篇》 、 《生成扩散模型漫谈:一般框架之ODE篇》 等所介绍的工作将扩散模型与 SDE、ODE 联系了起来,于是相应的数值积分技术也被直接用于扩散模型的采样加速,其中又以相对简单的 ODE 加速技术最为丰富,我们在 《生成扩散模型漫谈:中值定理加速ODE采样》 也介绍过一例。 这篇文章我们介绍另一个特别简单有效的加速技巧——Skip Tuning,出自论文《The Surprising Effectiveness of Skip-Tuning in Diffusion Sampling》,准确来说它是配合已有的加速技巧使用,来一步提高采 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览