文章预览
点击 名片 关注并星标 #TSer # 扫下方二维码 ,加入时序人学术星球 参与算法讨论,获取前沿资料 ( 220+ 篇专栏笔记,已有 210+ 同学加入学习) 当前,人工智能(AI)模型已经达到了较高的准确度水平。虽然其卓越的性能带来了相当大的好处,但其固有的复杂性却常常降低人类的信任度,从而减缓了它们在高风险决策领域(如金融)的应用。可解释性人工智能(XAI)领域旨在弥合这一差距,使AI模型更易于理解。 本文介绍一篇来自加拿大学者所做的综述研究 (由于篇幅限制,仅分享重点内容,感兴趣的朋友可查阅原文细节内容) 。研究者通过重点关注过去五年发表的工作, 对预测金融时间序列的 XAI 方法进行了分类 。该综述区分了可解释性和可理解性,并强调了在实践中需要分别对待这些概念,因为它们的应用方式并不相同。通过明确的定义、
………………………………