专栏名称: 专知
专知,为人工智能从业者服务,提供专业可信的人工智能知识与技术服务,让认知协作更快更好!
今天看啥  ›  专栏  ›  专知

ICML 2024|Transformer究竟如何推理?基于样例还是基于规则

专知  · 公众号  ·  · 2024-06-30 14:00
    

文章预览

转载机器之心 文章第一作者为来自北京大学物理学院、即将加入人工智能研究院读博的胡逸。胡逸的导师为北京大学人工智能研究院助理教授、北京通用人工智能研究院研究员张牧涵,主要研究方向为图机器学习和大模型的推理和微调。 论文地址:https://arxiv.org/abs/2402.17709 项目主页:https://github.com/GraphPKU/Case_or_Rule 论文标题:Case-Based or Rule-Based: How Do Transformers Do the Math? Case-based or rule-based? 尽管如 ChatGPT 这样的大语言模型(Large Language Models, LLMs)已经在各种复杂任务中展现出令人惊艳的性能,它们在处理一些对人类来说十分简单的数学推理问题时仍会面临困难,例如长整数加法。 人类可以轻松地学习加法的 基本规则 ,例如竖式加法,并将其应用于任意长度的新的加法问题,但 LLMs 却难以做到这一点。相反,它们可能会依赖于训练语料库中见过的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览