专栏名称: 量子位
վ'ᴗ' ի 追踪AI行业和技术动态,这里更快一步!关注我们,回复“今天”,更多大新闻等你来发现
今天看啥  ›  专栏  ›  量子位

无需人类或GPT-4打标签!南大&旷视研究院无监督范式大幅降低视觉大模型对齐成本

量子位  · 公众号  · AI  · 2024-06-23 11:34
    

文章预览

旷视研究院 投稿 量子位 | 公众号 QbitAI 不用打标签,也能解决视觉大模型的偏好对齐问题了。 南大与旷视研究院的研究人员,推出了适用于VLM的无监督范式。 对比偏好对齐前后,可以发现模型的输出发生了显著的变化。 目前的视觉大模型已经比较成熟,但作者发现它们在用户体感方面仍然有所欠缺。 于是团队经过研究,通过构造偏好样本对的方式解决了视觉语言模型的偏好对齐问题,并提出了Self-Supervised Visual Preference Alignment (SeVa) 范式。 该范式基于LLaVa-1.5-7B/13B完成,整个过程无需GPT-4或者是人类参与打标签,目前项目已经开源! 构建正负样本对比数据集 目前视觉大模型基本上在流程上已经非常成熟——预训练+指导监督微调 (SFT) +对齐 (可选) 。 去年下半年开始,工业界和学术界主要聚焦在多模态大模型的数据( 数据构造,配比,打 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览