文章预览
编辑丨王多鱼 排版丨水成文 大语言模型 (LLM) ,例如ChatGPT和Gemini,是能阅读和生成自然人类语言的人工智能系统。不过,这类系统很容易产生 幻觉 (Hallucination) ,生成不准确或没有意义的内容。 然而,检测大语言模型出现幻觉的程度很难,因为生成的这些回答的呈现方式可能会让它们看起来很可信。 2024年6月17日,牛津大学的研究人员在 Nature 期刊发表了题为: Detecting hallucinations in large language models using semantic entropy 的研究 论文。 该研究报道了一种能够 检测 大语言模型 (LLM) 幻觉 (Hallucination) 的方法,该方法能测量大语言模型生成回答的含义的不确定性,或能用于提升大语言模型输出的可靠性。 在这项研究中,研究团队 尝试量化一个大语言模型产生幻觉的程度,从而判断生成的内容有多忠于提供的源内容。 他们的方法能检测“ 编
………………………………