期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于改进积分梯度的黑盒迁移攻击算法
1
作者 王正来 关胜晓 《计算机工程与应用》 CSCD 北大核心 2024年第9期309-316,共8页
对抗样本可以轻易攻击深度神经网络,影响模型的使用安全。虽然白盒攻击方法有优秀的成功率,但是在黑盒迁移攻击时通常表现出较差的效果。目前最先进的TAIG算法基于积分梯度,可以提升对抗样本的迁移性。但研究发现其积分路径缺失到饱和... 对抗样本可以轻易攻击深度神经网络,影响模型的使用安全。虽然白盒攻击方法有优秀的成功率,但是在黑盒迁移攻击时通常表现出较差的效果。目前最先进的TAIG算法基于积分梯度,可以提升对抗样本的迁移性。但研究发现其积分路径缺失到饱和区的有效信息,并且使用不恰当的基线和梯度计算,限制了算法攻击成功率的上限。改进了积分梯度并提出了IIGA攻击算法(improved integrated gradients attack)。改进积分梯度将有限路径扩展为无限路径,融合输入到真实饱和区的梯度累计,可以表征每个分量更准确的重要性;并提出信息熵基线,确保基线相对于模型不含任何信息。IIGA将生成的改进积分梯度进行平滑处理作为攻击的反向优化方向,平滑操作过滤因神经网络在小范围偏导剧烈跳动而产生的大量噪点,使梯度信息集中于视觉特征,并在迭代过程中加入动量信息稳定梯度方向。在ImageNet数据集上进行的大量实验表明IIGA不仅在白盒攻击下优于FGSM、C&W等算法,在黑盒迁移攻击模式下也大大超过了SI-NI、VMI、AOA和TAIG等先进的算法。 展开更多
关键词 对抗攻击 扩展路径 信息熵基线 迁移攻击
下载PDF
应用引导积分梯度的对抗样本生成
2
作者 王正来 关胜晓 《计算机系统应用》 2023年第7期171-178,共8页
给图片添加特定扰动可以生成对抗样本,误导深度神经网络输出错误结果,更加强力的攻击方法可以促进网络模型安全性和鲁棒性的研究.攻击方法分为白盒攻击和黑盒攻击,对抗样本的迁移性可以借已知模型生成结果来攻击其他黑盒模型.基于直线... 给图片添加特定扰动可以生成对抗样本,误导深度神经网络输出错误结果,更加强力的攻击方法可以促进网络模型安全性和鲁棒性的研究.攻击方法分为白盒攻击和黑盒攻击,对抗样本的迁移性可以借已知模型生成结果来攻击其他黑盒模型.基于直线积分梯度的攻击TAIG-S可以生成具有较强迁移性的样本,但是在直线路径中会受噪声影响,叠加与预测结果无关的像素梯度,影响了攻击成功率.所提出的Guided-TAIG方法引入引导积分梯度,在每一段积分路径计算上采用自适应调整的方式,纠正绝对值较低的部分像素值,并且在一定区间内寻找下一步的起点,规避了无意义的梯度噪声累积.基于ImageNet数据集上的实验表明,Guided-TAIG在CNN和Transformer架构模型上的白盒攻击性能均优于FGSM、C&W、TAIG-S等方法,并且制作的扰动更小,黑盒模式下迁移攻击性能更强,表明了所提方法的有效性. 展开更多
关键词 深度神经网络 对抗攻击 积分梯度 引导路径 迁移攻击
下载PDF
基于生成对抗网络的目标检测黑盒迁移攻击算法
3
作者 陆宇轩 刘泽禹 +4 位作者 罗咏刚 邓森友 江天 马金燕 董胤蓬 《软件学报》 EI CSCD 北大核心 2024年第7期3531-3550,共20页
目标检测被广泛应用到自动驾驶、工业、医疗等各个领域.利用目标检测算法解决不同领域中的关键任务逐渐成为主流.然而基于深度学习的目标检测模型在对抗样本攻击下,模型的鲁棒性存在严重不足,通过加入微小扰动构造的对抗样本很容易使模... 目标检测被广泛应用到自动驾驶、工业、医疗等各个领域.利用目标检测算法解决不同领域中的关键任务逐渐成为主流.然而基于深度学习的目标检测模型在对抗样本攻击下,模型的鲁棒性存在严重不足,通过加入微小扰动构造的对抗样本很容易使模型预测出错.这极大地限制了目标检测模型在关键安全领域的应用.在实际应用中的模型普遍是黑盒模型,现有的针对目标检测模型的黑盒攻击相关研究不足,存在鲁棒性评测不全面,黑盒攻击成功率较低,攻击消耗资源较高等问题.针对上述问题,提出基于生成对抗网络的目标检测黑盒攻击算法,所提算法利用融合注意力机制的生成网络直接输出对抗扰动,并使用替代模型的损失和所提的类别注意力损失共同优化生成网络参数,可以支持定向攻击和消失攻击两种场景.在Pascal VOC数据集和MS COCO数据集上的实验结果表明,所提方法比目前攻击方法的黑盒迁移攻击成功率更高,并且可以在不同数据集之间进行迁移攻击. 展开更多
关键词 对抗攻击 目标检测 黑盒迁移攻击 生成对抗网络 注意力损失
下载PDF
基于Rectified Adam和颜色不变性的对抗迁移攻击 被引量:3
4
作者 丁佳 许智武 《软件学报》 EI CSCD 北大核心 2022年第7期2525-2537,共13页
深度神经网络在物体检测、图像分类、自然语言处理、语音识别等众多领域上得到广泛应用.然而,深度神经网络很容易受到对抗样本(即在原有样本上施加人眼无法察觉的微小扰动)的攻击,而且相同的扰动可以跨模型、甚至跨任务地欺骗多个分类器... 深度神经网络在物体检测、图像分类、自然语言处理、语音识别等众多领域上得到广泛应用.然而,深度神经网络很容易受到对抗样本(即在原有样本上施加人眼无法察觉的微小扰动)的攻击,而且相同的扰动可以跨模型、甚至跨任务地欺骗多个分类器.对抗样本这种跨模型迁移特性,使得深度神经网络在实际生活的应用受到了很大限制.对抗样本对神经网络的威胁,激发了研究者对对抗攻击的研究兴趣.虽然研究者们已提出了不少对抗攻击方法,但是大多数这些方法(特别是黑盒攻击方法)的跨模型的攻击能力往往较差,尤其是对经过对抗训练、输入变换等的防御模型.为此,提出了一种提高对抗样本可迁移性的方法:RLI-CI-FGSM.RLI-CI-FGSM是一种基于迁移的攻击方法,在替代模型上,使用基于梯度的白盒攻击RLI-FGSM生成对抗样本,同时使用CIM扩充源模型,使RLI-FGSM能够同时攻击替代模型和扩充模型.具体而言,RLI-FGSM算法将Radam优化算法与迭代快速符号下降法相结合,并利用目标函数的二阶导信息来生成对抗样本,避免优化算法陷入较差的局部最优.基于深度神经网络具有一定的颜色变换不变性,CIM算法通过优化对颜色变换图像集合的扰动,针对防御模型生成更多可迁移的对被攻击的白盒模型不那么敏感的对抗样本.实验结果表明,该方法在一般网络和对抗网络模型上都取得了更高的成功率. 展开更多
关键词 对抗样本 对抗攻击 黑盒攻击 迁移 基于迁移攻击
下载PDF
面向空间视觉目标检测的对抗攻击与防御算法
5
作者 周栋 孙光辉 吴立刚 《控制与决策》 EI CSCD 北大核心 2024年第7期2161-2168,共8页
随着航天航空技术的发展,空间目标视觉检测技术作为航天器智能在轨服务的重要技术支撑,获得了国内外研究学者的广泛关注.考虑到太空中恶劣的光照条件以及未知的动态场景,空间目标视觉检测的鲁棒性问题亟待深入研究.首先,提出一种黑盒迁... 随着航天航空技术的发展,空间目标视觉检测技术作为航天器智能在轨服务的重要技术支撑,获得了国内外研究学者的广泛关注.考虑到太空中恶劣的光照条件以及未知的动态场景,空间目标视觉检测的鲁棒性问题亟待深入研究.首先,提出一种黑盒迁移实例攻击方法,将图像识别领域的对抗样本攻击方法应用于空间目标检测任务,实现对EfficientDet目标检测模型的欺骗攻击;同时,提出一种协同防御策略,将对抗训练和SRMNet去噪器相结合,有效增强目标检测模型的鲁棒性.实验结果表明,所提出防御策略不仅能够成功抵御对抗样本攻击,还能取得高于原始空间目标检测模型的检测精度. 展开更多
关键词 空间目标视觉检测 黑盒迁移实例攻击 对抗训练 SRMNet
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部