专栏名称: AIWalker
关注计算机视觉、图像处理、深度学习等领域的干货分享与前沿paper解读。AIWalker由具有多年算法研究与产品化落地经验的Happy运营,原创为主、同时会转载优秀解读文章。欢迎志同道合的小伙伴们加入一同学习进步。
目录
今天看啥  ›  专栏  ›  AIWalker

自回归解码速度提高64 倍!MaskGIT:双向Transformer的图像生成新范式|LVM经典解读

AIWalker  · 公众号  ·  · 2024-07-03 21:36

文章预览

↑ 点击 蓝字  关注极市平台 作者丨科技猛兽 编辑丨极市平台 极市导读   MaskGIT 在 ImageNet 数据集上显着优于最先进的 Transformer 模型,相比自回归解码的速度,提高了多达 64 倍。此外,MaskGIT 可以很容易地扩展到各种图像编辑任务,例如修复、外推和图像处理。   >> 加入极市CV技术交流群,走在计算机视觉的最前沿 本文目录 1 MaskGIT:非自回归的掩码图像生成 Transformer (来自谷歌) 1 MaskGIT 论文解读 1.1 MaskGIT 的诞生背景 1.2 MaskGIT 两阶段策略 1.3 迭代解码 1.4 掩码策略设计 1.5 图像生成实验结果 1.6 图像编辑应用 太长不看版 在计算机视觉领域中,生成式 Transformer 技术一直都在经历着迅速的迭代,因为其在合成高保真和高分辨率图像方面能力出众。在当时,最好的生成式 Transformer 技术仍将图片视为 token 序列,并且根据光栅扫描顺序 (即逐行) 顺序解码图 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览