文章预览
前言: 科研就像一场冒险,而看论文就是你的探险工具!只有通过深入阅读,才能找到宝藏,发现那些意想不到的科研奇遇哦! 1. 大模型在逻辑推理中是否依赖记忆力? 标题: On Memorization of Large Language Models in Logical Reasoning 机构: Google、伊利诺伊大学、普林斯顿大学 相关领域: 模型结构和预训练、指令微调和奖励模型、逻辑推理 作者: Chulin Xie, Yangsibo Huang, Chiyuan Zhang 分析: 这篇论文探讨了大型语言模型在逻辑推理任务中是否主要依赖于记忆(memorization)而非真正理解(reasoning)的问题。通过分析模型对一个动态生成的基于Knights and Knaves(K )谜题逻辑推理 benchmark 的性能,研究者发现虽然模型在经过微调后能在训练数据上取得接近完美的准确率,但在数据稍有变动的推理问题上表现出不足。研究还表明,虽然微调导致模型大
………………………………