注册
登录
专栏名称:
AI工程化
专注于AI领域(大模型、MLOPS/LLMOPS 、AI应用开发、AI infra)前沿产品技术信息和实践经验分享。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
解螺旋
·
二区SCI论文惨遭撤稿!把曲线下面积写成弯道 ...
·
3 天前
懒人医考
·
这些考生可提前一年通过执业医师考试!
·
3 天前
学术经纬
·
效果媲美司美格鲁肽!《自然》:降食欲、促代谢 ...
·
1 周前
梅斯医学
·
久坐不健康,多站行不行?近10万人研究:每天 ...
·
1 周前
今天看啥
›
专栏
›
AI工程化
为什么LLM无法真正推理?OpenAI的o1也无法改变这一事实
AI工程化
·
公众号
· · 2024-09-24 22:01
文章预览
OpenAI推理模型o1出现似乎让大模型学会了推理,而这篇文章作者认为它仍然无法真正学会推理,他深入分析了大语言模型在推理能力上的根本局限性,尽管LLM在某些任务中表现出色,但它们的随机性本质和非图灵完备的计算架构决定了它们无法进行真正的开放式推理。笔者认为该文章很有洞见,为我们从根本上如何看待LLM具有启发意义,特翻译给大家阅读。不过,随着AI技术的快速发展,未来可能会出现新的突破 , 所以我们不必说死,也要保持开放的态度来看待。 作者:Alejandro Piad Morffis 原文:Why Large Language Models Cannot (Still) Actually Reason[1] 大语言模型(LLM)常常给人一种能够有效推理的错觉。它们生成的回应往往连贯且切合语境,酷似人类的推理过程。然而,这种表面上的能力可能具有误导性。 事实上,在面对需要长链推理的复杂问题时,LLM经常出错。它 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
解螺旋
·
二区SCI论文惨遭撤稿!把曲线下面积写成弯道下区域?错误百出,改了一遍都没改完!
3 天前
懒人医考
·
这些考生可提前一年通过执业医师考试!
3 天前
学术经纬
·
效果媲美司美格鲁肽!《自然》:降食欲、促代谢,双重功效减肥新策略出现了
1 周前
梅斯医学
·
久坐不健康,多站行不行?近10万人研究:每天站立时间不宜>2小时,每增加30分钟,直立性循环疾病风险增11%
1 周前