今天看啥  ›  专栏  ›  返朴

大语言模型会推理吗?丨AI那厮

返朴  · 公众号  · 心理学 科技自媒体  · 2024-11-13 08:16

主要观点总结

本文讨论了关于大语言模型的推理能力及其与逻辑、心理学等学科的关联。作者认为大语言模型在一定程度上可以完成推理任务,但不同于传统的规范性模型,其推理过程难以解释,遵循的规律不同于人类推理机制。文章还探讨了智能系统的推理能力来源以及元知识和对象知识的区别。

关键观点总结

关键观点1: 大语言模型被视为特殊的描述性推理模型,通过总结人类行为来完成某些推理任务。

大语言模型将推理任务看作端到端的映射,通过匹配已知映射关系完成任务。其推理能力在一定程度上类似于人类的推理过程,但离传统的“推理”概念还有差距。

关键观点2: 大语言模型的推理能力在一定程度上是有限的。

大语言模型在某些问题上的表现令人瞩目,但在数学等领域存在缺陷。其成功依赖于训练数据和强大的信息处理能力,但也存在若干令人诟病的问题,如理解和解释的困难。

关键观点3: 智能系统的推理能力来源复杂。

智能系统的推理能力既可能来自设计,也可能通过进化获得。在大语言模型中,元知识和对象知识的区分是重要的。智能系统的固有逻辑难以从自身经验中总结出来,这可能涉及到系统的设计和进化。


文章预览

加 星标 ,才能不错过每日推送!方法见文末插图 大语言模型很有用,但不能解决人工智能的基本问题,包括推理。 撰文  |  王培 (美国天普大学计算机系) 自从ChatGPT在两年前横空出世,各种大语言模型一次又一次地刷新人们的认知,以至于连 “通用人工智能即将到来” 都从狂人呓语成了陈词滥调,已经不足以被用作 “震惊体” 的标题了。即使是见惯此间风云变幻的人,对此也难免生出恍如隔世之感。今年的诺贝尔奖两次授予了其背后的人工神经网络技术,更说得上是 “烈火烹油,鲜花着锦” 。 但与此同时,在学界内部一直存在的质疑声音也开始增加音量。最新的《人工智能杂志》 (世界上最大的人工智能学术组织AAAI的会员刊物) 的封面文章就直言关于 “可解释的人工智能” 的研究已经陷入泥潭 [1] ,而 “难以解释”正是深度神经网 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览