文章预览
“尺度定律”之下,大模型除了要突破算力瓶颈,亦面临高质量数据即将“见底”难题。如何通过 “通专融合”技术路径 实现通用人工智能,正日益成为业内共识。 1月15日,上海人工智能实验室对书生大模型进行重要版本升级,书生·浦语3.0(InternLM3)通过精炼数据框架,大幅提升了数据效率,并实现思维密度的跃升。仅使用4T训练数据的InternLM3-8B-Instruct,其综合性能超过了同量级开源模型,节约训练成本75%以上;同时,书生·浦语3.0首次在通用模型中实现了常规对话与深度思考能力融合,可应对更多真实使用场景。 体验页面: https://internlm-chat.intern-ai.org.cn (点击文末阅读原文直达) GitHub链接 : https://github.com/InternLM/InternLM HuggingFa ce链接: https://huggingface.co/internlm ModelScope链接:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm3-8b-instruct 高思维密
………………………………