文章预览
强化学习作为机器学习的一种范式,因其强大的策略试错学习能力,受到关注 .随着深度学习的融入,强
化学习方法在许多复杂的控制任务中取得了巨大成功.然而,深度强化学习网络作为黑盒模型,其缺乏可解释性所
带来的不安全、不可控及难理解等问题限制了强化学习在诸如自动驾驶、智慧医疗等关键领域中的发展.为了解决
这一问题,科研人员开展了对强化学习可解释性的研究 .然而,这些研究开展相对较晚,且缺少针对多智能体强化
学习可解释性方法的系统性总结,同时,可解释性的定义存在人为主观性,导致系统性面向强化学习过程的可解释
性研究较为困难.本文对当前强化学习的可解释性研究工作进行了全面的整理与总结.首先,对强化学习的可解释
性进行定义并总结了相关评估方法.随后,基于马尔可夫决策过程,划分了行为级解释、
………………………………