今天看啥  ›  专栏  ›  AI for Research

模型剪枝后的训练规模定律研究 | LLaVA-o1:让视觉语言模型逐步推理 | Xmodel-1.5:一种百亿参数的多语种大模型

AI for Research  · 公众号  ·  · 2024-11-18 21:56
    

文章预览

前言: 看论文就像是一次美食之旅,每一篇论文都是一道不同的菜肴。有些论文会让你大快朵颐,有些论文会让你欲罢不能,而有些论文则会让你咬牙切齿。但是别忘了,只有尝试了各种不同的菜肴,才能成为一个真正的“吃货”哦! 1. Xmodel-1.5:一种百亿参数规模的多语种大模型   标题: Xmodel-1.5: An 1B-scale Multilingual LLM   相关领域: 模型结构改进、预训练、多模态   作者: Wang Qun,  Liu Yang,  Lin Qingquan   分析: 论文介绍了一种规模为1B的多语种大型语言模型Xmodel-1.5,该模型在约2万亿个标记上进行预训练,表现出强大的跨语言性能,特别是在泰语、阿拉伯语和法语方面的表现尤为突出。同时,该模型在中国英语方面也非常有效。论文还贡献了一个泰语评估数据集,包含了来自国立大列的学生的数百个问题标注。论文展示了其模型的有效性和 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览