专栏名称: 中国人工智能学会
关注中国人工智能学会官方公共账号,收取学会的科普信息、新闻动态、活动预告及人工智能领域科技前沿信息。
今天看啥  ›  专栏  ›  中国人工智能学会

千万IP创科普丨颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature

中国人工智能学会  · 公众号  · AI  · 2024-09-29 17:43

文章预览

转自 学术头条 人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定! 日前,一项发表在权威科学期刊 Nature 上的研究表明: 相比于小参数模型,大参数模型不会承认它们的“无知”,而更倾向于生成错误答案 。 值得关注的是, 人们并不善于发现这些错误 。 这项研究来自瓦伦西亚理工大学团队及其合作者,他们在研究了 GPT、LLaMA 和 BLOOM 系列大语言模型(LLM)之后发现—— 尽管正如预期的那样,由于一些微调方法(如 RLFH), 参数规模更大的 LLM 生成的答案更准确 ,尤其是在复杂任务上, 但整体可靠性却较低 。 在所有不准确的回答中,错误回答的比例有所上升,甚至 在一些简单任务上出现更多低级错误 。例如,GPT-4 在处理简单的加法和字谜时的错误率竟比一些小模型高出 15%。这是因为模型不太可能回避回 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览