专栏名称: 机器之心
专业的人工智能媒体和产业服务平台
今天看啥  ›  专栏  ›  机器之心

李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了

机器之心  · 公众号  · AI  · 2025-03-20 14:06
    

文章预览

机器之心报道 机器之心编辑部 当我们看到一张猫咪照片时,大脑自然就能识别「这是一只猫」。但对计算机来说,它看到的是一个巨大的数字矩阵 —— 假设是一张 1000×1000 像素的彩色图片,实际上是一个包含 300 万个数字的数据集(1000×1000×3 个颜色通道)。每个数字代表一个像素点的颜色深浅,从 0 到 255。 为了更加高效地从成千上万张图像中学习,AI 模型需要对图片进行压缩。比如当前最先进的图像生成模型,第一步就是一个名叫 tokenization 的操作,用于执行此操作的组件叫 tokenizer。tokenizer 的主要目标是将原始图像压缩到一个更小、更易处理的潜在空间,使得生成模型能够更高效地学习和生成。因此,如何得到更好的 tokenizer 是该领域的研究者非常关心的问题。 在一篇新论文中,来自斯坦福大学李飞飞、吴佳俊团队的研究者提出了一种名叫 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览