专栏名称: 返朴
溯源守拙·问学求新
目录
相关文章推荐
今天看啥  ›  专栏  ›  返朴

ChatGPT“胡说八道”怎么办?给AI“测谎”的新工具来了!

返朴  · 公众号  ·  · 2024-06-24 08:02

文章预览

加 星标 ,才能不错过每日推送!方法见文末动图 ChatGPT虽然在众多领域提高了效率,但偶尔也会“胡说八道”。针对这一问题,近日牛津大学团队在 Nature 发表研究,提出了一种基于“语义熵”的检测工具,有效区分大语言模型生成内容的真实性。这项工具通过衡量词汇在上下文中的含义变化,而非仅依赖词汇本身,为提高AI输出的可靠性提供了新思路。 编辑  |  药明康德内容团队 ChatGPT等大语言模型 (large language model, LLM) 的出现在大量场景中提高了生产效率,但大家使用这类工具时,相信都有这样的体会:虽说面对我们的绝大多数提问,ChatGPT总能迅速给出答案,但这些回答却时不时伴随着各种错误,甚至可能会“一本正经地胡说八道”。 来源:Pexels 这些问题的出现,无疑限制了LLM在很多专业领域的应用。下面要介绍的这篇论文里,就举了这 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览