今天看啥  ›  专栏  ›  科普中国

AI 胡说八道怎么办?牛津大学开发了一种“测谎”方法

科普中国  · 公众号  · 科学  · 2024-06-30 15:30
胡说八道不可怕,一本正经的胡说八道才可怕,你因为一本正经而信了ta的胡说八道,更可怕……这就是当下我们(捏着鼻子)使用 AI 时需要面对的现状。如何避免 AI 生成虚假的事实内容,对使用者产生误导呢?各个大模型平台一直在研究和尝试,而要想“避免”问题,首先得“识别”问题。6 月 19 日,牛津大学一个研究团队发表在《自然》杂志上的一项新研究,提出了一种颇有潜力的给AI“测谎”的方法,下面咱们就详细聊聊。大模型的胡说八道和风险“幻觉”(Hallucinations)是大语言模型(例如 ChatGPT、Gemini、或文心一言)面临的一个关键问题,也是网络上常见的用户体验吐槽类型之一,这个术语可以粗略地理解为 AI 一本正经的胡说八道。比如,你问 ChatGPT:恐龙扛狼是什么意思?它会一本正经地告诉你——这象征着旧势力和新力量的对抗,是 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照