文章预览
前段日子OpenAI推出的o1模型,以其提升显著的逻辑推理能力,引发了人们对它背后训练方法的热烈讨论。关于o1的介绍和输出结果demo,这里就不再赘述,大家可以去openai的官网上阅读(很短,读起来很快,因为秘密都藏好了)。我相信最近的一段时间里,当大家在网上探索o1是如何训练时,肯定会看到以下几个热点词: Test/Inference-Time scaling law,通过增加推理阶段的算力提升模型的推理能力 Post Training,通过后训练提升模型的推理能力 PRM/ORM:基于过程/结果的奖励模型 CoT:思维链 强化学习、self-play(自我博弈)与MCTS(蒙特卡洛搜索树算法 ) 等等。 当这些词单个出现在我们面前时,我们似乎很难把他们串在一起。不仅如此,我们也不知道单个词背后的原理,比如“什么是test/inference-time scaling law"?什么叫把算力花在推理阶段?为什么把算力花在推理
………………………………