文章预览
大模型智能|分享 来源 | 机器之心 本篇工作已被 NeurIPS(Conference on Neural Information Processing Systems)2024 会议接收,并被评为 Oral Presentation (72/4553) 。该文章的第一作者陈麒光,目前就读于哈工大赛尔实验室。他的主要研究方向包括大模型思维链、跨语言大模型等。 该研究主要提出了推理边界框架(Reasoning Boundary Framework, RBF),首次尝试量化并优化思维链推理能力。 论文链接:https://arxiv.org/abs/2410.05695 代码地址:https://github.com/LightChen233/reasoning-boundary 01 大型语言模型(LLMs)与思维链推理能力 什么是思维链(Chain-of-Thought, CoT)? 近年来,大型语言模型(LLMs) 在处理各种复杂任务中取得了长足进展,从文本生成到问题解答,LLMs 几乎无所不能。然而,面对复杂的推理任务,LLMs 也存在瓶颈 —— 模型往往容易跳过推理的中间步骤,直接生成最终答案
………………………………