文章预览
↑ 点击 蓝字 关注极市平台 来源丨机器之心 极市导读 最近一段时间,随着 OpenAI o1 模型的推出,关于大型语言模型是否拥有推理能力的讨论又多了起来。比如苹果在前段时间的一篇论文中指出,只要给模型一些干扰,最聪明的模型也会犯最简单的错误 。这种现象被归结为「当前的 LLM 无法进行真正的逻辑推理;相反,它们试图复制在训练数据中观察到的推理步骤」。然而,事实真的是这样吗?谷歌 DeepMind 的一篇论文似乎得出了相反的结论。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿 最近,DeepMind 今年 2 月份的一篇论文在社交媒体上掀起了一些波澜。 关于该论文的早期报道。 这篇论文题为「Grandmaster-Level Chess Without Search」。文中介绍说,DeepMind 的研究者训练了一个参数量为 2.7 亿的 Transformer 模型,这个模型无需依赖复杂的搜索算法
………………………………