专栏名称: SparksofAGI
人工智能前沿论文解读
目录
相关文章推荐
今天看啥  ›  专栏  ›  SparksofAGI

关注者推荐:当模型在胡说的时候知道自己在胡说吗?

SparksofAGI  · 公众号  ·  · 2024-05-16 13:12

文章预览

Learning to Trust Your Feelings: Leveraging Self-awareness in LLMs for Hallucination Mitigation 当模型在胡说的时候知道自己在胡说吗? ‍‍‍‍‍ 编者按:这篇论文是一位本号的关注者在看到上一篇文章 微调真的导致了模型幻象吗? 后在后台推荐我阅读的,其实类似这种“模型知道自己不知道然后去调整回复”的思想是显学了,但是确实这个号发这个方向的不多,恰好来看一篇8!本人非常推荐大家向我投稿,不论是宣传自己的工作或作为一种练习,受益其实会很多~本号会坚持保持朴素和开源,只专注内容不做夸大宣传,欢迎一起来传播优质内容! TLDR: 对于LLM幻觉问题,这篇论文从模型内部知识状态的角度给出了分析和缓解的方法。 通过分析LLM内部状态,发现 LLM能够判断自己是否知道某个特定的知识点 。利用这种判断能力,可以将知识类问题分成已知,未知和 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览
推荐文章