文章预览
导语 AI 前首席科学家Ilya Sutskever在NeurIPS 2024上指出,数据的增长已接近瓶颈,未来的AI发展将从拓展模型和数据规模转向推理和自我意识的探索。随着大语言模型(LLMs)在推理能力上的不断提升,如何使模型具备自我改进和推理验证的能力成为研究的热点。 大模型2.0系列读书会 旨在深入探讨大模型推理新范式背后的核心技术和基本原理,而大模型2.0读书会的第四期分享将由香港科技大学(广州)的吴杰民带领大家集中探讨LLMs如何通过自我验证和迭代优化来提升推理能力,并结合近期前沿研究,分析推理验证的技术细节及其在缓解模型幻觉,提高推理表现上的效果。此外,还将简要讨论如何通过强化学习和过程奖励模型优化推理过程,提供一些理解前沿模型o1,o3可能的思路。 分享内容简介 本次分享将围绕大语言模型(LLMs)的自我改进与推理
………………………………