文章预览
Learning to Trust Your Feelings: Leveraging Self-awareness in LLMs for Hallucination Mitigation 当模型在胡说的时候知道自己在胡说吗? 编者按:这篇论文是一位本号的关注者在看到上一篇文章 微调真的导致了模型幻象吗? 后在后台推荐我阅读的,其实类似这种“模型知道自己不知道然后去调整回复”的思想是显学了,但是确实这个号发这个方向的不多,恰好来看一篇8!本人非常推荐大家向我投稿,不论是宣传自己的工作或作为一种练习,受益其实会很多~本号会坚持保持朴素和开源,只专注内容不做夸大宣传,欢迎一起来传播优质内容! TLDR: 对于LLM幻觉问题,这篇论文从模型内部知识状态的角度给出了分析和缓解的方法。 通过分析LLM内部状态,发现 LLM能够判断自己是否知道某个特定的知识点 。利用这种判断能力,可以将知识类问题分成已知,未知和
………………………………