专栏名称: 图灵人工智能
人工智能及其他科技学术前沿、机器学习、图像识别、语音识别、自动驾驶、自然语言处理、脑机接口、云计算、大数据、物联网、机器人、天文物理、生物科学、数学、区块链、比特币、计算机等学术前沿知识、报告、讲座等介绍。
今天看啥  ›  专栏  ›  图灵人工智能

谷歌&MIT何恺明团队:视觉大模型像LLM一样高效Scaling,指路连续token+随机生成顺序

图灵人工智能  · 公众号  ·  · 2024-10-26 00:00

文章预览

点击上方“ 图灵人工智能 ”,选择“星标”公众号 您想知道的人工智能干货,第一时间送达                           梦晨 发自 凹非寺 转自量子位 | 公众号 QbitAI 视觉自回归模型的Scaling,往往不像在语言模型里那样有效。 谷歌 何恺明团队 联手,有望打破这一局面,为自回归文生图模型的扩展指出一个方向: 基于 连续token 的模型比离散token模型在视觉质量上更好。 随机顺序生成 与光栅顺序相比在GenEval测试上得分明显更好。 受到这些发现启发,团队训练了 Fluid ,一个基于连续标记的随机顺序自回归模型。 扩展至百亿参数的Fluid在MS-COCO 30K上zero-shot条件下实现了6.16的FID分数,并在GenEval基准测试中获得了0.69的整体得分。 团队希望这些发现和结果能够鼓励未来进一步弥合视觉和语言模型之间的规模差距。 100亿参数自回归文生图模型 回顾过去 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览