一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
今天看啥  ›  专栏  ›  深度学习自然语言处理

ICLR 高分:深入研究多模态大模型的对齐策略

深度学习自然语言处理  · 公众号  ·  · 2024-11-23 22:43

文章预览

作者:yearn 原文:https://zhuanlan.zhihu.com/p/6762892397 编辑:青稞AI 多模态大模型(MLLMs)虽然在视觉与语言理解任务上取得了显著进展,但仍面临“幻觉”现象,即生成的描述可能不符合视觉内容。为了解决这一问题,研究人员提出了偏好对齐(preference alignment)方法来增强模型与图像内容的契合度。然而,由于偏好数据集、基模型类型和对齐方法的差异,目前尚不清楚具体哪些因素对性能提升最为关键。因此,本研究旨在通过独立分析各个因素,探索不同的对齐方法对MLLMs性能的影响。 主要贡献 1. 对齐方法分类 :本文将偏好对齐方法分为离线方法(如DPO)和在线方法(如在线DPO),并证明结合离线和在线方法可在某些情况下进一步提升模型性能。 2. 偏好数据集分析 :回顾了多种已发布的多模态偏好数据集,并分析其构建细节如何影响模型表现,提 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览