今天看啥  ›  专栏  ›  ADFeed

生成式AI爆火一年半,为何还存在幻觉问题

ADFeed  · 公众号  ·  · 2024-09-30 11:15

文章预览

为了弥补这种技术限制和错误,业界已经提出了许多解决方案。许多方案都在尝试预测下一个token,但这些模型实际上无法预知未来会发生什么。比如,人类在说话时,大脑会先构思一个框架,知道自己要分几点阐述,可能会采用总分总的结构。但大型语言模型由于限制了自己在推理过程中只能机械地预测下一个token,这使得它的概率特性在某些场景中被不断放大。 因此,近期的研究工作希望大型语言模型能够具备一定的预测未来和自我反思的能力。例如,模型在说完一段话后,能够根据自己所说的内容进行额外的确认和修改,这可能会提升其能力上限。 文 | 曹宇(博士、阿里巴巴大模型算法专家) *本文系作者参加“九派圆桌”《 生成式AI:泡沫将至? 》议题讨论发言,经审阅发布 01 大语言模型限制了自己在推理过程中 只能机械地进行预测 AI技 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览