文章预览
前言 由于其庞大的参数量,部署大规模的DiT模型成本较高。尽管已有研究探讨了扩散模型的高效部署 技术,如模型量化,但对于基于transformer的DiT模型,相关工作仍相对匮乏。为了填补这一研究空白,本论文提出了TerDiT(ternary diffusion models with transformers 的量化训练和高效部署方案),专注于DiT网络的三元量化,并扩展模型规模,从600M到4.2B。 Pytorch训练营,花两个星期彻底掌握代码实现 CV各大方向专栏与各个部署框架最全教程整理 CV全栈指导班、基础入门班、论文指导班 全面上线!! 论文名:TerDiT: Ternary Diffusion Models with Transformers 论文链接:https://arxiv.org/pdf/2405.14854.pdf 项目链接:https://github.com/Lucky-Lance/TerDiT 导读 大规模预训练文本到图像扩散模型的进展,已经成功生成了复杂且高度符合输入条件 的图像。特别是基于Transformer架构的扩散模型(DiT
………………………………