专栏名称: 人工智能学家
致力成为权威的人工智能科技媒体和前沿科技研究机构
今天看啥  ›  专栏  ›  人工智能学家

对抗攻击最新研究:仅修改「一个像素」即可骗过神经网络!

人工智能学家  · 公众号  · AI  · 2017-10-29 19:34

文章预览

编译:BaymaxZ 作者:Jiawei Su、Danilo Vasconcellos Vargas、Sakurai Kouichi(九州大学) 摘要:在图像识别领域,基于DNN的方法克服了传统的图像处理技术,甚至达到媲美人类的结果。 最近的研究证实,深度神经网络(DNN)的输出不是连续的,对输入向量的微小扰动非常敏感,因此人们已经提出了几种方法来制定对网络的有效扰动。在本论文中,九州大学的科研人员提出了一种基于差分进化算法的极小对抗扰动(少像素攻击)的新方法。它需要很少的对抗信息,对更广泛的DNN模型类型有效。 结果表明,73.8%的测试图像可以在一个像素上修改为对抗图像,平均具有98.7%的置信度。另外,我们都知道,调查DNN的鲁棒性问题可以为高维输入空间理解DNN决策图的几何特征提供关键 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览