注册
登录
专栏名称:
清熙
清晰、客观、理性探讨大模型(LLM)、人工智能(AI)、大数据(Big Data)、物联网(IoT)、云计算(Cloud)、供应链数字化等热点科技的原理、架构、实现与应用。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
界面新闻
·
增值税法通过,自2026年1月1日起施行
·
16 小时前
慈怀读书会
·
灵魂有趣,生活才有趣
·
19 小时前
t0mbkeeper
·
如果只推荐一部苏联电影的话,我大概会推荐 ...
·
3 天前
慈怀读书会
·
冬至:愿所有好运如期而至
·
4 天前
今天看啥
›
专栏
›
清熙
LLM CoT的工作原理
清熙
·
公众号
· · 2024-05-16 16:54
文章预览
思 维链(CoT:Chain of Thought)常常作为增强大模型推理能力的利器, 但大模型推理能力的提升多大程度上来自人为任务 拆解 ?还是额外提示的Token激发了背后更强大的计算? “让我们逐步思考:Transformer语言模型中的隐藏计算”[文献1] 发现了一个有趣的现象, 通过在思维链中添加无意义的中间Token(例如“……”)可以解决无中间Token时没法完成的较难的两个算法任务。 文献的结论是: 添加额外Token就可以增强大模型推理,甚至可以与Token本身内容选择无关。 网友本就惊讶于著名提示词“让我们一步一步地想”(Let‘s think step by step)的神奇效果, 对本论文描述的“AI不依赖人类经验的token内容,隐藏自行推理”,就更觉得魔幻且担忧。 不过笔者发现,斯坦福谷歌等学者的预印论文,“思维链使Transformer能解决内在串行的问题 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
界面新闻
·
增值税法通过,自2026年1月1日起施行
16 小时前
慈怀读书会
·
灵魂有趣,生活才有趣
19 小时前
t0mbkeeper
·
如果只推荐一部苏联电影的话,我大概会推荐 1974 年的《意大利-20241222153511
3 天前
慈怀读书会
·
冬至:愿所有好运如期而至
4 天前
国金证券研究
·
基础化工陈屹|新化股份公司点评:业绩符合预期,香料项目稳步推进
4 月前