专栏名称: AI TIME 论道
AI TIME是一群关注人工智能发展,并有思想情怀的青年学者创办的圈子,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,链接全球AI学者,以辩论的形式探讨人工智能领域的未来。
今天看啥  ›  专栏  ›  AI TIME 论道

Big Model weekly | 第54期

AI TIME 论道  · 公众号  ·  · 2025-01-19 18:00
    

文章预览

点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 01 Distinguishing Ignorance from Error in LLM Hallucinations 大型语言模型(LLMs)容易出现幻觉——即输出内容无根据、事实错误或与之前的生成不一致。本文关注闭卷问答(CBQA),在该领域,先前的研究尚未充分区分两种可能的幻觉类型,即模型(1)在其参数中没有正确答案,或(2)尽管具备所需知识但仍回答错误。本文认为,区分这两种情况对于检测和缓解幻觉至关重要。具体来说,情况(2)可以通过干预模型的内部计算来缓解,因为知识存在于模型的参数中。相比之下,在情况(1)中,没有可供利用的参数知识来缓解幻觉,因此应通过求助于外部知识源或选择不回答来解决。为了帮助区分这两种情况,本文引入了一种名为“尽管拥有正确知识但给出错误答案”(WACK)的方法,用于构建针对第二种 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览