文章预览
和第一篇文章恰恰相反,属于一盆冷水浇头上。 Q 大模型真的有推理能力,还是算力堆砌? 众所周知,如果要实现AGI,仅仅会匹配是不行的,必须要有大于等于人脑的理解和推理能力。 现在大模型突飞猛进,号称推理能力大大增强,那么,它们究竟是有足够的推理能力能做题,还是超大数据库训练的结果呢? 苹果的这篇论文似乎是反方,认为其只是超大算力叠出来的产物,如果碰到比较多的变形题就做不出来了,缺乏足够的推理能力。 【文末附最新论文翻译】 这篇题为「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」的论文,一作是 苹果机器学习研究工程师 Iman Mirzadeh,图灵奖得主 Yoshua Bengio 的弟弟 Samy Bengio 也是作者之一。 这里苹果引入了一个新的概念: GSM-Symbolic ,它可以根据 GSM8K 测试集创
………………………………