注册
登录
专栏名称:
中国人工智能学会
关注中国人工智能学会官方公共账号,收取学会的科普信息、新闻动态、活动预告及人工智能领域科技前沿信息。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
宝玉xp
·
回复@蝈蝈俊:没错//@蝈蝈俊:关键还是大任 ...
·
3 天前
黄建同学
·
从基础到高级的LLM ...
·
4 天前
爱可可-爱生活
·
[CL]《Counterfactual ...
·
4 天前
爱可可-爱生活
·
《爱可可微博热门分享(11.16)》 ...
·
5 天前
黄建同学
·
【小雪,梅花初绽】#AI创造营##ai暖冬派 ...
·
6 天前
今天看啥
›
专栏
›
中国人工智能学会
千万IP创科普丨颠覆认知:大模型不可靠,越大越不可靠?最新研究登上 Nature
中国人工智能学会
·
公众号
·
AI
· 2024-09-29 17:43
文章预览
转自 学术头条 人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定! 日前,一项发表在权威科学期刊 Nature 上的研究表明: 相比于小参数模型,大参数模型不会承认它们的“无知”,而更倾向于生成错误答案 。 值得关注的是, 人们并不善于发现这些错误 。 这项研究来自瓦伦西亚理工大学团队及其合作者,他们在研究了 GPT、LLaMA 和 BLOOM 系列大语言模型(LLM)之后发现—— 尽管正如预期的那样,由于一些微调方法(如 RLFH), 参数规模更大的 LLM 生成的答案更准确 ,尤其是在复杂任务上, 但整体可靠性却较低 。 在所有不准确的回答中,错误回答的比例有所上升,甚至 在一些简单任务上出现更多低级错误 。例如,GPT-4 在处理简单的加法和字谜时的错误率竟比一些小模型高出 15%。这是因为模型不太可能回避回 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
宝玉xp
·
回复@蝈蝈俊:没错//@蝈蝈俊:关键还是大任务拆成gpt可以做的-20241119112951
3 天前
黄建同学
·
从基础到高级的LLM 微调的终极指南↓#ai##大模型# 这篇论-20241118120343
4 天前
爱可可-爱生活
·
[CL]《Counterfactual Generation f-20241118060432
4 天前
爱可可-爱生活
·
《爱可可微博热门分享(11.16)》 爱可可微博热门分享(11-20241116231131
5 天前
黄建同学
·
【小雪,梅花初绽】#AI创造营##ai暖冬派对# 寒风中,梅花悄-20241116080331
6 天前