文章预览
来源:专知 本文 为论文介绍 ,建议阅读 5 分钟 本论文通过提出内在技术来提高深度神经网络的可解释性,为日益发展的可解释人工智能领域做出了贡献。 深度神经网络在过去十年里推动了人工智能的发展,彻底改变了游戏、生物学、自动系统以及语音和文本助手等领域。尽管其影响深远,但由于其复杂的结构和缺乏对决策过程的解释,这些网络往往被视为黑箱模型。这种不透明性对人工智能系统的广泛应用和可信度构成了重大挑战。本论文通过贡献于可解释人工智能(eXplainable AI)领域,致力于提高深度神经网络的可解释性,从而解决这一问题。 论文的核心贡献在于引入新的技术,通过分析深度神经网络的内部工作原理,使其更加可解释。具体而言,贡献有三方面。首先,论文介绍了自解释深度神经网络的设计,例如集成外部存储器以实现可
………………………………