专栏名称: AIGC开放社区
专注AIGC(生成式人工智能)领域的专业社区,关注GPT-4、百度文心一言、华为盘古等大语言模型(LLM)的发展应用和落地,以及国内LLM的发展和市场研究,社区秉承共建、共享、开放的理念,提供对社区会员有价值的商业化思路和服务。
今天看啥  ›  专栏  ›  AIGC开放社区

重大突破!微软发布“自我进化”,帮小模型超OpenAI-o1

AIGC开放社区  · 公众号  · 互联网安全 科技自媒体  · 2025-01-10 06:09
    

主要观点总结

微软亚洲研究院发布了创新算法rStar-Math,该算法通过代码增强CoT和蒙特卡洛树搜索等技术,帮助小参数模型实现多轮自我思维深度进化,增强模型的数学推理能力。rStar-Math在MATH基准测试中的表现超过了其他开源大模型,显示出小模型在创新算法和高质量数据加持下的强大推理能力。文章还介绍了rStar-Math使用的代码增强CoT、蒙特卡洛树搜索、PPM训练方法和多轮自我进化等技术细节。

关键观点总结

关键观点1: rStar-Math算法介绍

微软亚洲研究院发布的创新算法,通过代码增强CoT和蒙特卡洛树搜索等技术,帮助小参数模型实现深度进化,增强数学推理能力。

关键观点2: rStar-Math在MATH基准测试中的表现

在MATH基准测试中,rStar-Math的准确率超过了其他开源大模型,证明了小模型在创新算法和高质量数据加持下的强大推理能力。

关键观点3: rStar-Math使用的技术细节

包括代码增强CoT、蒙特卡洛树搜索、PPM训练方法和多轮自我进化等技术的运用,提高了模型的推理轨迹质量和推理能力。

关键观点4: 微软开源的小模型Phi-4与rStar-Math的关系

从微软开源的最强小模型Phi-4和最新推出的创新算法rStar-Math来看,未来小模型的性能和效率将逐渐成为主流,对于没有强大算力集群的中小企业和个人开发者来说非常实用。


文章预览

专注AIGC领域的专业社区,关注微软 、百度文心一言、讯飞星火等大语言模型(LLM)的发展和 应用 落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注! 微软亚洲研究院发布了一种创新算法——rStar-Math。 rStar-Math通过代码增强CoT、蒙特卡洛树搜索等,可以帮助小参数模型在不依赖老师模型蒸馏的情况下,实现多轮自我思维深度进化,极大增强模型的数学推理能力。 在美国数学竞赛AIME 2024测试中,rStar-Math平均解决了53.3%(8/15)的难题,超过了OpenAI o1-preview的44.6%,以及所有其他开源的大模型,成为最聪明的 前20% 高中数学生。 在MATH基准测试中,rStar-Math将阿里开源的小模型Qwen2.5-Math-7B的准确率从58.8%提高到90.0%,Qwen2.5-Math-1.5B的准确率从51.2%提高到87.8%,Phi3-mini-3.8B从41.4%提高到86.4%,全部超过了OpenAI o1-preview。 这充分说明,小模型在创新算法和高质量 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览