专栏名称: 新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
目录
今天看啥  ›  专栏  ›  新智元

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

新智元  · 公众号  · AI  · 2024-06-08 13:49
    

文章预览

   新智元报道   编辑:庸庸 乔杨 【新智元导读】 DeepMind发表了一篇名为「To Believe or Not to Believe Your LLM」的新论文,探讨了LLM的不确定性量化问题,通过「迭代提示」成功将LLM的认知不确定性和偶然不确定性解耦。研究还将新推导出的幻觉检测算法应用于Gemini,结果表明,与基线方法相比,该方法能有效检测幻觉。 大语言模型产生幻觉、胡说八道的问题被诟病,已经不是一天两天了。 前有ChatGPT编造法律案件,后有 谷歌搜索建议披萨放胶水 。 就连号称模型更安全、幻觉更少的Claude系列,在Reddit上也能看到不少吐槽。 LLM输出虚假信息的问题,似乎并不能在短时间内彻底解决。 这就给很多场景下的应用带来了巨大的障碍,尤其是法律、医疗、学术这样比较严谨的知识领域。如果答案有错,还不如不用。 那么能不能有一种方法,至少为LLM的输出划 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览