专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
今天看啥  ›  专栏  ›  数据派THU

多代理强化学习综述:原理、算法与挑战

数据派THU  · 公众号  · 大数据  · 2024-10-21 17:00
    

文章预览

来源:DeepHub IMBA 本文 约4000字 ,建议阅读 8 分钟 多代理强化学习(MARL)通过引入多个代理在共享环境中交互的复杂性,极大地扩展了传统强化学习的边界。 1. 引言 多代理强化学习(Multi-Agent Reinforcement Learning, MARL)是强化学习的一个重要分支,它将传统的单代理强化学习概念扩展到多代理环境中。在MARL中,多个代理通过与环境和其他代理的交互来学习最优策略,以在协作或竞争场景中最大化累积奖励。 MAgent中代理之间的对抗(混合MARL示例) MARL的正式定义如下:多代理强化学习是强化学习的一个子领域,专注于研究在共享环境中共存的多个学习代理的行为。每个代理都受其个体奖励驱动,采取行动以推进自身利益;在某些环境中,这些利益可能与其他代理的利益相冲突,从而产生复杂的群体动态。 2. 单代理强化学习回顾 在深入MARL之前,有必 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览