今天看啥  ›  专栏  ›  李继刚

推理模型的Prompt

李继刚  · 公众号  ·  · 2025-02-08 19:38
    

主要观点总结

本文介绍了RL/RLHF模型相较于SFT Model的优势和挑战,包括推理能力的引入对Prompt写法的影响。文章提出了针对这类模型的新的思考框架,包括起点(任务信息)和终点(期望结果)的设定,以及如何用抽象梯来表达对结果的期望。文章还通过三个示例来展示如何应用新的思考框架。

关键观点总结

关键观点1: RL/RLHF模型相较于SFT Model的优势和挑战

文章介绍了强化学习模型(如GPT-4o和Deepseek-R1)相较于传统SFT Model的优势,包括引入推理能力。但同时也面临挑战,即需要对Prompt的写法进行适应和调整。

关键观点2: 新的思考框架的提出

针对RL/RLHF模型的特点,文章提出了一个新的思考框架,包括设定起点(任务信息)和终点(期望结果),以及使用抽象梯来表达对结果的期望。

关键观点3: 应用新的思考框架的示例

文章通过三个示例任务来展示如何应用新的思考框架,包括疾病诊断、更换轮胎、建构数字时代人际关系认知模型等。


文章预览

缘起 之前的 Prompt,针对的都是 SFT Model,清晰明确地表达自己的思路,引入 Few-shots 示范想要的「味道」,都是为了引导大模型「得我们的意」,输出符合我们需求的内容。 GPT-4o,Deepseek-R1,这类 RL/RLHF Model 来了。它们在 SFT Model 基础上,引入了 RL 的训练方式,给模型 Q & A,让模型自己尝试推理如何从 Q ⇒ A。结果就是 SFT 的模型参数发生了变更,出现了「推理能力」。 「模型参数」变了,「模型宇宙」的天也就变了。Prompt 的写法当然也得跟着变。之前的 Chain-of-thoughts 和 Few-shots 写法,在这类 RL/RLHF 模型上,效果会「变差」。这些曾经有助于引导思考过程的方法,和推理模型习得的「推理能力」发生了冲突。我们的引导,对它不再是帮助,而变成了阻碍。 读了论文,学习了网络上大家的写法示例,大家都在说「清晰直接地说自己想要什么」就好 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览