文章预览
MLNLP 社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。 社区的愿景 是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。 转载自 | 新智元 编辑 | Aeneas 好困 就在刚刚,MIT系初创公司Liquid AI团队官宣:推出首批多模态非Transformer模型——液体基础模型LFM。 作为通用人工智能模型,LFM可用于建模任何类型的顺序数据,包括视频、音频、文本、时间序列和信号。 目前,LFM有三种不同的规模: 1.3B的稠密模型,适用于资源高度受限的环境 3.1B的稠密模型,为边缘部署进行了优化 40.3B的混合专家(MoE)模型,专为处理更复杂的任务而设计 在各种规模上,这三个模型都实现了最佳质量表现,同时保持了更小的内存占用和更高效的推理能力
………………………………