今天看啥  ›  专栏  ›  中国科学报

聊天机器人越“大”越爱“胡说八道”

中国科学报  · 公众号  ·  · 2024-09-30 19:30

文章预览

编译 | 王方 一项9月25日发表于《自然》的研究表明,当大型语言模型(LLM)变得更大并从人类反馈中进行学习时,它们在回答简单问题时反而变得不那么可靠。 人工智能(AI)开发人员试图通过两种主要方式提高LLM的能力:一是扩大规模,为其提供更多的训练数据和更高的计算能力;二是根据人类反馈塑造它们,对其进行调整或微调。 大型语言模型能回答各种各样的问题,但并不总是准确。图片来源:Jamie Jin/Shutterstock 西班牙巴伦西亚理工大学的José Hernández-Orallo和同事研究了LLM在规模扩大和成形过程中的表现。他们研究了美国OpenAI公司的GPT系列聊天机器人、美国Meta公司的LLaMA AI模型,以及BigScience项目研究人员开发的BLOOM。 研究人员通过设置5种类型的任务测试了AI,即算术题、解字谜、地理问题、科学挑战和从杂乱无章的列表中提取信息。 他们 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览