今天看啥  ›  专栏  ›  赛博禅心

提示工程:反复崛起,反复被死亡

赛博禅心  · 公众号  ·  · 2024-09-21 10:59

主要观点总结

文章主要讨论了OpenAI的新推理模型o1的能力与挑战,以及与之相关的提示工程的发展。文章指出随着模型能力增强,对技巧和指令两大核心部分的需求有所不同,面临新的挑战。文章详细描述了这两大部分的实际操作和存在的问题。

关键观点总结

关键观点1: 模型能力增强对技巧的需求变化

随着模型如GPT-4和o1的发布,早期的技巧如设定角色在生成内容时的作用逐渐减弱。新一轮模型训练会加入情感勒索案例,影响效果。思维链成为提示工程的核心技巧,特别是在o1中,能够生成高质量思维链解决复杂问题。

关键观点2: 指令的核心地位和难点

指令是提示工程的核心部分,旨在让AI理解人类意图并精确完成任务。其难点包括如何清晰表达意图、让AI理解上下文、拆分复杂任务、精确控制AI、防止用户绕过限制以及针对特定任务提出开创性解决方案。

关键观点3: AI时代的挑战与机遇

AI时代带来诸多挑战与机遇,如精确控制AI、组建工作流协同完成任务等。真正的提示工程本质在于如何让AI懂你、如何精确控制AI。在让别人懂我们和让别人听话这件事上,需要不断的努力和创新。


文章预览

背景: 《 原理解析:李继刚老师的「汉语新解」 》 《 o1 能带我们走进 AGI 吗? 》 《 Claude Prompt:方法论 》 随着 OpenAI 新的推理模型 o1 preview 的发布,它能自动生成高质量思维链,很简单的提示词也可以得到很不错的效果,所以很多人觉得提示工程已经死了,提示工程师是世上最短命的职业之一。真的如此吗? 我们常说的提示工程,有两大核心部分: 技巧和指令 。 技巧就是那些与模型本身密切相关,各种让特定模型表现更好的技巧 ,比如说: 为模型设定角色 “你是一个有帮助的助手”,“你是一个资深前端工程师”等等 。在 GPT-3 时代这个技巧很好用, GPT-4 后效果已经不太明显了 。这可能是因为早期训练语料不够多模型不够强的时候,设定角色可以让角色相关的语料在生成时有更高的概率。随着模型能力的增强,已经不太需要这样的技巧 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览