文章预览
©PaperWeekly 原创 · 作者 | 苏剑林 单位 | 科学空间 研究方向 | NLP、神经网络 如何减少采样步数同时保证生成质量,是扩散模型应用层面的一个关键问题。其中, 《生成扩散模型漫谈:DDIM = 高观点DDPM》 介绍的 DDIM 可谓是加速采样的第一次尝试。 后来, 《生成扩散模型漫谈:一般框架之SDE篇》 、 《生成扩散模型漫谈:一般框架之ODE篇》 等所介绍的工作将扩散模型与 SDE、ODE 联系了起来,于是相应的数值积分技术也被直接用于扩散模型的采样加速,其中又以相对简单的 ODE 加速技术最为丰富,我们在 《生成扩散模型漫谈:中值定理加速ODE采样》 也介绍过一例。 这篇文章我们介绍另一个特别简单有效的加速技巧——Skip Tuning,出自论文《The Surprising Effectiveness of Skip-Tuning in Diffusion Sampling》,准确来说它是配合已有的加速技巧使用,来一步提高采
………………………………