文章预览
人工智能(AI)模型的参数规模越大,生成的答案就越准确?就更加可信? 还真不一定! 日前,一项发表在权威科学期刊 Nature 上的研究表明: 相比于小参数模型,大参数模型不会承认它们的“无知”,而更倾向于生成错误答案 。 值得关注的是, 人们并不善于发现这些错误 。 这项研究来自瓦伦西亚理工大学团队及其合作者,他们在研究了 GPT、LLaMA 和 BLOOM 系列大语言模型(LLM)之后发现—— 尽管正如预期的那样,由于一些微调方法(如 RLFH), 参数规模更大的 LLM 生成的答案更准确 ,尤其是在复杂任务上, 但整体可靠性却较低 。 在所有不准确的回答中,错误回答的比例有所上升,甚至 在一些简单任务上出现更多低级错误 。例如,GPT-4 在处理简单的加法和字谜时的错误率竟比一些小模型高出 15%。这是因为模型不太可能回避回答问题——比
………………………………