文章预览
点击上方 蓝字 关注我 本文:6800字阅读 18分钟 高端的食材,往往只需要最朴素的烹饪方式; 高端的提示词也一样,把Top-K写进来,一个专属于你的CoT-decoding解码策略应运而生! 丝毫不要怀疑LLM的推理能力,在这个维度上,它比我们懂! 传统观点认为,要让语言模型进行复杂推理,必须通过精心设计的提示(prompts)来引导。然而,最新研究表明,这种观点可能需要重新审视。Google
DeepMind的研究人员Xuezhi
Wang和Denny
Zhou在今年的论文中提出了一个令人兴奋的发现:语言模型本身就具备推理能力,只是这种能力被常规解码方法所掩盖。 图片由修猫创作 01 无需提示的推理能力 长期以来,研究人员一直致力于开发各种提示技术,如few-shot或zero-shot思维链(Chain-of-Thought, CoT)提示,以增强语言模型的推理能力。这些方法虽然有效,但往往需要大量人工干预来
………………………………