今天看啥  ›  专栏  ›  机器之心

通过无限的后训练『补丁』,就能实现AGI吗?

机器之心  · 公众号  · AI  · 2025-02-02 09:30
    

文章预览

本文来自往期 PRO会员通讯精选解读,文末关注「机器之心PRO会员」,查看更多专题解读。 o1 模型的推出将研究方向从预训练带向了推理层,尽管给大模型「打补丁」的方式取得了一定效果,但无限地通过扩展测试时间计算,就能实现通用人工智能吗?规模能扩展到什么程度?计算资源、时间成本问题如何解决?无限的知识和数据是否意味着大模型具有真实的泛化能力? 强化学习之父 Richard Sutton 这样形容当下的业内研究方向,「就像是在路灯下找钥匙的问题,我丢了钥匙会在路灯下找,因为那里能看见,尽管那可能不是钥匙所在的地方。」 分别来自阿尔伯塔大学、Google DeepMind的两项研究工作跳出了「在路灯下找钥匙」的视野范围,指出了实现更强 AI 的两个可能方向。 目录 01. o1 还不能称为 AGI:推理计算之外,实现 AGI 还有哪些不一样的思路? o1 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览