深度神经网络容易受到对抗性样本的欺骗,攻击者将人眼难以察觉的扰动添加至原始图像中,会导致原本表现良好的网络模型输出错误的分类。为此,提出一种基于空洞卷积的对抗样本防御技术,通过高效的搜索算法得到空洞卷积层结构,使用残差密...深度神经网络容易受到对抗性样本的欺骗,攻击者将人眼难以察觉的扰动添加至原始图像中,会导致原本表现良好的网络模型输出错误的分类。为此,提出一种基于空洞卷积的对抗样本防御技术,通过高效的搜索算法得到空洞卷积层结构,使用残差密集块依次对图像特征进行压缩,并对低维特征进行图像重建,最终得到扰动滤除后的重建图像。该技术可作为预处理过程添加至已存在的图像分类任务中。在MNIST(Modified National Institute of Standards and Technology)和CIFAR(Canadian Institutes for Advanced Research)-10上的实验表明,提出的防御网络对多种先进的对抗样本攻击均有较好的防御性能,可以显著提高基分类器的抗攻击能力。展开更多
文摘深度神经网络容易受到对抗性样本的欺骗,攻击者将人眼难以察觉的扰动添加至原始图像中,会导致原本表现良好的网络模型输出错误的分类。为此,提出一种基于空洞卷积的对抗样本防御技术,通过高效的搜索算法得到空洞卷积层结构,使用残差密集块依次对图像特征进行压缩,并对低维特征进行图像重建,最终得到扰动滤除后的重建图像。该技术可作为预处理过程添加至已存在的图像分类任务中。在MNIST(Modified National Institute of Standards and Technology)和CIFAR(Canadian Institutes for Advanced Research)-10上的实验表明,提出的防御网络对多种先进的对抗样本攻击均有较好的防御性能,可以显著提高基分类器的抗攻击能力。