专栏名称: AINLPer
一个专注自然语言处理(NLP)方向的公众号。机器学习(ML)、深度学习(DL)、自然语言处理相关模型理解、热门论文(Paper)分享分析、pytorch、C++、Python、Java ...
今天看啥  ›  专栏  ›  AINLPer

哈工大 |大模型CoT任务推理优化,减少冗余步骤,提高推理效率!

AINLPer  · 公众号  ·  · 2024-11-10 21:32
    

文章预览

点击上方 “ AINLPer “ ,设为 星标 更多干货,第一时间送达 一句话总结 本研究提出了一个推理边界(RB)框架,系统量化并优化大语言模型(LLMs)在思维链(CoT)任务中的推理能力边界。 通过定义推理边界和应用优化策略,合理解释了多个 CoT 策略其在推理性能上的优势。 同时,最短可接受推理路径(MARP)策略通过减少不必要的推理步骤,显著提高了不同任务中的推理性能与效率。 论文链接:https://arxiv.org/abs/2410.05695 代码地址:https://github.com/LightChen233/reasoning-boundary 1. 大型语言模型(LLMs)与思维链推理能力 什么是思维链(Chain-of-Thought, CoT)? 近年来,大型语言模型(LLMs) 在处理各种复杂任务中取得了长足进展,从文本生成到问题解答,LLMs 几乎无所不能。然而,面对复杂的推理任务,LLMs 也存在瓶颈 —— 模型往往容易跳过推理的中间步骤 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览