文章预览
基于大语言模型的智能体(LLM-based Agent)受到了广泛关注,并越来越受欢迎。此外,规划能力是 LLM-based Agent 的重要组成部分,它涉及与环境的交互和执行行动以完成规划任务,这通常需要从初始状态实现预期目标。 本文研究通过 Instruction Tuning(即 Agent Training)来提高 LLM-based Agent 的规划能力。 最近关于 Agent Training 的研究表明,利用专家级轨迹数据(行动-观察对序列)对 LLM 进行 instruction tuning,可有效增强其规划能力。不过,现有的工作主要集中在从人工设计的规划任务和环境中合成轨迹。创建这些环境和任务需要耗费大量人力物力,因此无法生成足够丰富和广泛的轨迹用于智能体(Agent)训练。 为了解决这一局限性,本文探索了自动合成各种环境和从易到难的渐进式规划任务的方法。作者引入了一个名为 AgentGen 的框架,该框架首先利用 LLM 生
………………………………