文章预览
很多提示词里试图使用“一步一步推理并思考”的表达方式,激发大模型的 CoT 思维链式思考,让输出更严谨完善。 实际上,如果提示词中只有这么一句话,是无效的。 大模型并不能真正“一步一步思考并推理”,它实现“推理”的过程是通过“输出思考过程”来实现的。 要搞懂这些,需要了解一点大模型的运行原理。 我有个学员曾经用一句话总结了大模型的工作原理,我觉得特精辟: 在问题中找答案 来自AI产品经理课程的学员 AI 不是基于“它拥有的知识”回答问题的,也不存在“思考”。 确切说,AI 压根就没有我们普通认知那种“知识”。 我们普通认知里的“知识”是知识库、是写有一堆问题和答案、一堆教程的文档,但 AI 所拥有的“知识”是新华字典: 它只知道词和词怎么组成句子,只知道哪些词放在一起更合适、更符合语法,没别的
………………………………