文章预览
大聪明: 从原理上来说, 输出 = LLM(上文) 这里,上文包括:预设提示词 + 用户指令 + Rag 内容 + AI 生成内容(包括CoT、反思、多伦对话产生的内容等)。 涂津豪同学厉害的地方,是让更多人,感受到了上文优化带来的效果增幅,仅通过固定提示词 (丰富版的 Let's think step by step)。 对于大模型,只要上文好,其出产也会好。提示词工程,正是基于这一原理,帮助提供足够的、精准的上文。须知: 提示词工程,可以帮大模型更准确输出,但无法让其更聪明。 本文中, 宝玉老师将带着大家探索一下,涂津豪同学的提示词,是如何构建的,以及更多原理 ,值得收藏 昨天一个热门话题是涂同学发的让 Claude 也能输出类似 o1 思考过程的 Prompt https://github.com/richards199999/Thinking-Claude ,有人称之为神级 Prompt,网友们体验后评论不一:有人认为确实很强
………………………………