文章预览
机器之心报道 编辑:杜伟、蛋酱 如今,多模态大模型(MLLM)已经在视觉理解领域取得了长足进步,其中视觉指令调整方法已被广泛应用。该方法是具有数据和计算效率方面的优势,其有效性表明大语言模型(LLM)拥有了大量固有的视觉知识,使得它们能够在指令调整过程中有效地学习和发展视觉理解。 在 Meta 和纽约大学合作的一篇论文中,研究者探究了 LLM 是否也可以通过微调来生成具有同等效率和有效性的视觉信息?论文作者中包括了 AI 领域的几位知名学者,包括图灵奖得主 Yann LeCun、纽约大学计算机科学助理教授谢赛宁、FAIR 研究科学家刘壮(将于明年 9 月 加盟普林斯顿大学 ,担任计算机科学系助理教授)。 论文标题:MetaMorph: Multimodal Understanding and Generation via Instruction Tuning 论文地址:https://arxiv.org/pdf/2412.14164v1 项目地址:https://tsb0601.github
………………………………