文章预览
点击上方 蓝字 关注我 本文:5200字阅读 14分钟 最近,有不少朋友问我如何实现精准限制输出?比如DoT《 真的别再吹o1模型是新的范式,看看清华的思维图(DoT)框架,LLM推理集大成者 》或者别的类似带有Thought这种的prompt推理方法经常性输出冗长内容(LLM给出很多废话),而这些prompt方法又不得不用,这在项目成本和内容要求上都遇到了巨大瓶颈。 图片由修猫创作 一项由意大利比萨的著名高等教育和研究机构圣安娜高等学校Sania
Nayab等人进行的研究为这个问题提供了一个创新的解决方案- Constrained Chain-of-Thought (CCoT)提示技术。这项研究不仅提出了控制LLM输出长度的新方法,还开发了一套评估LLM输出简洁性和正确性的新指标。这项研究很值得受困于此的朋友借鉴。 01 输出长度与推理效率的矛盾 # 大型语言模型在复杂问题解答方面表现出色,但同时
………………………………