文章预览
【点击】 加入大模型技术交流群 本文是《 多模态视觉-语言大模型的架构演进 》的续篇,聚焦2024年以来学术界和产业界的SOTA多模态大模型 (Multimodal Large Language Models, MLLM),分享架构设计中的深刻见解与最佳实践。 我们会发现,最新流行的MLLM架构大多采用类LLaVA的ViT+MLP+LLM范式。 得益于LLaVA的精简设计、数据和训练高效性、更强的baseline性能,LLaVA架构建立起了良好的应用生态。 国内也涌现出了高质量的MLLM,InternVL拉近了开源模型与GPT-4V的差距,具备4K高分辨率处理能力,而MiniCPM-V实现了高效端侧部署,让小模型也能抗衡顶尖的闭源模型。 最新的Cambrian-1则是鼓励研究者跳出当前MLLM的思维定式,不断探索视觉表征更多的可能性。 通往AGI有多条路径,而原生的多模态大模型则是必经之路。 本文重点介绍LLaVA-NeXT、InternVL、MiniCPM-V系列,以及以视觉为中
………………………………