文章预览
点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 引言 本文探究了 transformers 在做数学推理问题时究竟是采用 case-based reasoning 还是 rule-based reasoning,并提出了 Rule-Following Fine-Tuning 的规则遵循微调方法来显式地教会 transformers 进行 rule-based reasoning。RFFT 展现了强大的长度泛化能力,并有潜力全面提升 LLMs 的推理能力。 论文地址:https://arxiv.org/abs/2402.17709 项目主页:https://github.com/GraphPKU/Case_or_Rule 论文标题:Case-Based or Rule-Based: How Do Transformers Do the Math? Case-based or rule-based? 尽管如 ChatGPT 这样的大语言模型(Large Language Models, LLMs)已经在各种复杂任务中展现出令人惊艳的性能,它们在处理一些对人类来说十分简单的数学推理问题时仍会面临困难,例如长整数加法。 人类可以轻松地学习加法的 基本规则 ,例如竖式加法,并将其应用于任意长度的
………………………………