文章预览
Interpretable and Explainable Logical Policies via Neurally Guided Symbolic Abstraction 通过神经引导的符号抽象实现可解释的逻辑策略 https://arxiv.org/pdf/2306.01439v2 https://github.com/k4ntz/NUDGE 后续相关工作: AGI雏形,系统1+系统2,Scallop2:神经符号编程语言: 符号、概率、可解释等强化学习等 机器人自监督NeSy神经符号框架,5大应用落地无人驾驶 视觉逻辑数据集V-LoL : A Diagnostic Dataset forVisual Logic 摘要 神经网络所需的有限先验使它们成为使用强化学习(RL)编码和学习策略的首选。然而,它们也是黑盒,这使得理解代理的行为变得困难,尤其是在图像层面上工作时。因此,神经符号RL旨在首先创建可解释的策略。不幸的是,可解释性并不等于可解释性。为了实现两者,我们引入了 神经引导可微分逻辑策略(NUDGE)。NUDGE利用训练有素的基于神经网络的代理来指导候选加权逻
………………………………