文章预览
点击下方 卡片 ,关注“ 慢慢学AIGC ” 摘要 信息以多种形式存在。多模态原生 AI 模型对于整合现实世界中的信息并提供全面的理解至关重要。虽然已有专有的多模态原生模型,但它们缺乏开放性,给应用甚至适应带来了障碍。为弥补这一缺陷,我们引入了 ARIA,一个开放的多模态原生模型,在各种多模态、语言和编码任务中表现出一流的性能。 ARIA 是一个专家混合(MoE)模型,对每个视觉和文本 token 分别激活了 39 亿和 35 亿个参数。 它在多模态任务上超越了 Pixtral-12B 和 Llama3.2-11B,并在多项任务中与最好的专有模型具有竞争力。我们 从零开始按四阶段流水线对 ARIA 进行预训练,使模型逐步具备语言理解、多模态理解、长上下文窗口和指令跟随等强大能力 。我们开源了模型权重及相关代码库,便于 ARIA 在实际应用中的轻松适配。 论文:https://arxiv.o
………………………………