文章预览
MLNLP 社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。 社区的愿景 是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。 转载自 | 量子位 作者 | 明敏 发布不到1周,OpenAI最强模型o1的护城河已经没有了。 有人发现,谷歌DeepMind一篇发表在8月的论文,揭示原理和o1的工作方式几乎一致。 这项研究表明,增加测试时(test-time)计算比扩展模型参数更有效。 基于论文提出的计算最优(compute-optimal)测试时计算扩展策略,规模较小的基础模型在一些任务上可以超越一个14倍大的模型。 网友表示: 这几乎就是o1的原理啊。 众所周知,奥特曼喜欢领先于谷歌,所以这才是o1抢先发preview版的原因? 有人由此感慨: 确实正如谷歌自己所说
………………………………