专栏名称: 大数据文摘
普及数据思维,传播数据文化
目录
相关文章推荐
今天看啥  ›  专栏  ›  大数据文摘

颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature

大数据文摘  · 公众号  · 大数据  · 2024-09-30 16:00
    

文章预览

大数据文摘受权转载自学术头条 作者: 田小婷 人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定! 日前,一项发表在权威科学期刊 Nature 上的研究表明:相比于小参数模型,大参数模型不会承认它们的“无知”,而更倾向于生成错误答案。 值得关注的是,人们并不善于发现这些错误。 这项研究来自瓦伦西亚理工大学团队及其合作者,他们在研究了 GPT、LLaMA 和 BLOOM 系列大语言模型(LLM)之后发现—— 尽管正如预期的那样,由于一些微调方法(如 RLFH),参数规模更大的 LLM 生成的答案更准确,尤其是在复杂任务上,但整体可靠性却较低。 在所有不准确的回答中,错误回答的比例有所上升,甚至在一些简单任务上出现更多低级错误。例如,GPT-4 在处理简单的加法和字谜时的错误率竟比一些小模型高出 15%。这是 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览