今天看啥  ›  专栏  ›  科普中国

AI 胡说八道怎么办?牛津大学开发了一种“测谎”方法

科普中国  · 公众号  · 科学  · 2024-06-30 15:30
    

文章预览

胡说八道不可怕, 一本正经的胡说八道才可怕,你因为一本正经而信了ta的胡说八道,更可怕…… 这就是当下我们(捏着鼻子)使用 AI 时需要面对的现状。 如何避免 AI 生成虚假的事实内容,对使用者产生误导呢?各个大模型平台一直在研究和尝试 ,而要想“避免”问题,首先得“识别”问题。6 月 19 日,牛津大学一个研究团队发表在《自然》杂志上的一项新研究,提出了一种颇有潜力的给AI“测谎”的方法,下面咱们就详细聊聊。 大模型的胡说八道和风险 “幻觉” (Hallucinations) 是大语言模型(例如 ChatGPT、Gemini、或文心一言)面临的一个关键问题,也是网络上常见的用户体验吐槽类型之一, 这个术语可以粗略地理解为 AI 一本正经的胡说八道。 比如,你问 ChatGPT:恐龙扛狼是什么意思? 它会一本正经地告诉你——这象征着旧势力和新力量的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览