专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
今天看啥  ›  专栏  ›  数据派THU

【博士论文】高效且有效的基础大型多模态模型学习

数据派THU  · 公众号  · 大数据  · 2024-10-29 17:00
    

文章预览

来源:专知 本文 约1000字 ,建议阅读 5 分钟 大型多模态模型(LMMs)的研究已经成为深度学习领域的重点,展示了其在当代研究中的重要性。LMMs能够处理来自不同模态的数据,通过利用互补信息来执行多种任务,从而提高预测能力。 LMMs的学习过程分为两个关键阶段:计算密集的预训练阶段,旨在从大规模的噪声数据中获取通用表示;以及后续的微调阶段,专注于将预训练模型调整到特定任务上。 传统上,基础LMMs的预训练被认为是拥有丰富计算资源的研究实验室的专属特权。在本论文中,我们提出了一种用于高效预训练基础视觉-语言模型(VLMs)的新方法。这涉及通过专门的预训练过程,利用现成的冻结大型语言模型(LLMs),从而减少对数据的需求。此外,我们引入了一种高效的VLM预训练方法,减少模态投影中的冗余。通过我们的方法,训练LLMs ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览