专栏名称: 生物世界
解读前沿科学进展,报道趣味研究发现,普及生命科学知识
今天看啥  ›  专栏  ›  生物世界

Nature:剑桥大学开发识破大语言模型瞎编乱造的方法

生物世界  · 公众号  ·  · 2024-06-18 10:18
    

文章预览

编辑丨王多鱼 排版丨水成文 大语言模型 (LLM) ,例如ChatGPT和Gemini,是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生 幻觉 (Hallucination) ,生成不准确或没有意义的内容。 然而,检测大语言模型出现幻觉的程度很难,因为生成的这些回答的呈现方式可能会让它们看起来很可信。 2024年6月17日,牛津大学的研究人员在  Nature 期刊发表了题为: Detecting hallucinations in large language models using semantic entropy 的研究 论文。 该研究报道了一种能够 检测 大语言模型 (LLM) 幻觉 (Hallucination) 的方法,该方法能测量大语言模型生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。 在这项研究中,研究团队 尝试量化一个大语言模型产生幻觉的程度,从而判断生成的内容有多忠于提供的源内容。 他们的方法能检测“ 编 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览