文章预览
文章名为《Memory Sharing for Large Language Model based Agents》,作者是来自美国新泽西州罗格斯大学计算机科学系的Hang Gao和Yongfeng Zhang(与AIOS系列文章出自同一团队)。文章概述了大型语言模型(LLM)Agents通过自然语言提示执行任务的能力。然而,文章指出,当将上下文学习(In-context Learning)应用于开放式挑战,例如诗歌创作时,由于所提供的示例的全面性以及智能体理解问题内容的能力的限制,导致输出结果常常与预期大相径庭。 为了解决这一差距,作者提出了一个名为Memory Sharing(MS)框架,用于LLM多智能体。该框架利用实时记忆存储和检索系统来增强上下文学习过程。在这个系统中,每个“记忆”都捕获了提出的查询和基于LLM智能体的相应实时响应,将这些记忆从广泛的类似智能体中聚合起来,以丰富所有智能体共享的记忆池。该框架不仅帮助智
………………………………