文章预览
1月15日,上海人工智能实验室对书生大模型进行重要版本升级,书生·浦语3.0(InternLM3)通过精炼数据框架,大幅提升了数据效率,并实现思维密度的跃升。 仅使用4T训练数据的InternLM3-8B-Instruct,其综合性能超过了同量级开源模型,节约训练成本75%以上; 同时, InternLM3 首次在通用模型中实现了常规对话与深度思考能力融合,可应对更多 真实使用场景。 体验页面: https://internlm-chat.intern-ai.org.cn GitHub链接 : https://github.com/InternLM/InternLM 模型链接: https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm3-8b-instruct 01 模型介绍 研究 团队提出大规模数据精炼框架,大幅提高了训练数据的质量, 在具体实践中, xia 。 通过构建数据“思维密度”杠杆,撬动模型性能提升,为突破Scaling Law带来了新的研究范式。 通过数据精炼框架,研究团队使 InternLM3 大幅提升了
………………………………