文章预览
点击上方 蓝字 关注我 本文:9000字阅读 23分钟 即便是最先进的LLM在复杂推理任务中仍面临着巨大挑战。更令人担忧的是,规模较小的语言模型(SLM)在这些任务上的表现更是差强人意,但近端设备的快速发展又催生着SLM的强烈需求。这种强需求弱表现的现象,也为AI研究者们带来了一个迫切需要解决的难题。 近日,一个由 哈佛大学 和 微软亚洲研究院 联合组成的研究团队提出了一种名为rStar的创新方法,为这个难题带来了突破性的解决方案。这项研究不仅在理论上独具匠心,更在实践中取得了令人瞩目的成果。所采用的模型也是常见的小模型,方法上具有很强的泛化能力。 图片由修猫创作 研究者的效率是惊人的, rStar 引用 了7月30 日 斯坦福和剑桥的“ 大 语言模 型猴子 ”的 重复采样用以提高决策质量(我是8月2日为大家介绍的)。 rStar 是“
………………………………