网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

针对车载环境感知系统的对抗样本生成方法  PDF

  • 黄世泽 1
  • 张肇鑫 2
  • 董德存 1
  • 秦晋哲 2
1. 上海市轨道交通结构耐久与系统安全重点实验室,上海 201804; 2. 同济大学 道路与交通工程教育部重点实验室,上海 201804

中图分类号: TP389.1

最近更新:2022-11-03

DOI:10.11908/j.issn.0253-374x.22227

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

针对车载环境感知场景中的目标检测系统,提出了一种针对目标检测器的对抗样本生成方法。该方法能够实现对目标检测器的白盒对抗攻击,包括目标隐身攻击和目标定向攻击。在Rail数据集和Cityscapes数据集中进行测试,测试结果验证了所提方法对YOLO目标检测器对抗攻击的有效性。

随着深度学习和卷积神经网络(convolutional neural network,CNN)的不断发展,通过CNN解决诸如图像分

1、目标检2以及故障诊3-4等问题已成为共识。在智能交通领5,通过车载摄像设备采集车辆行驶环境视觉信息,基于深度学习检测车辆行驶前方障碍物,这可突破司机感知的局限性,提高交通运营安全。

研究表明,对抗样本的存在对深度学习造成较大的威胁,即通过对输入图像施加人眼不可察觉的细微扰动,可以使深度神经网络以较高的置信度输出任意想要的分类,这样的输入称为对抗样本。Szegedy

6提出了一种有限记忆BFGS(limited BFGS,L-BFGS)算法,通过尽量找到最小的可能的攻击扰动来生成对抗样本,即使存在扰动的图像与干净的图像只有微小的差别,甚至这些扰动肉眼察觉不到,也会导致分类器分类错误。Moosavi-Dezfooli7证明了深度学习网络中普遍存在一种使其错误识别的扰动。Goodfellow8提出了快速梯度符号方法(fast gradient sign method,FGSM),寻找深度学习模型的梯度变化最大方向,并按照此方向对图像添加扰动。上述几种方法需要获取网络结构,因此被称为白盒攻击。除了上述几种方法,基于雅可比矩阵的显著性图攻击(Jacobian-based saliency map attack,JSMA9、Carlini&Wagner(C&W)算10、迭代极小可能类法(iterative least-likely class method,ILCM11、TargetedFool12也是白盒攻击方法。与白盒攻击相对应的是黑盒攻击,黑盒攻击不需要获取网络的详细结构。文献[13]中,通过粒子群优化(particle swarm optimization,PSO)算法寻找对抗样本,不需要获取网络结构,取得了较好的实验效果。在物理世界,通过对真实世界中的车牌进行黑盒攻击,欺骗车牌识别系统,从而验证了攻击方法的迁移14。文献[15]中提出一种面向人脸活体检测的对抗样本生成方法。总体来说,上述方法都是基于分类器网络的对抗样本生成方法,对于其他类型的深度学习对抗攻击具有非常重要的借鉴意义。

随着深度学习网络应用场景的不断拓展,针对目标检测器的对抗样本生成方

16-17近年来陆续被提出。Xie18提出了稠密对抗生成(dense adversary generation,DAG)算法,将梯度下降算法应用到对抗样本的优化问题来实现对目标检测器的攻击。2019年,Wei19提出了统一有效对抗(unified and efficient adversary,UEA)算法,基于生成对抗网络(generative adversarial networks,GAN)框架来获取对抗性图像和视频。Wang20将投影梯度下降(projected gradient descent,PGD)算法运用到目标检测器攻击,取得了较好的攻击效果,该算法能够应用于许多神经网络结构。Huang21提出了针对Faster R-CNN的改进的PGD算法和改进的C&W算法,成功攻击了Faster R-CNN目标检测器。Xiao22提出了一种针对目标检测器的对抗样本生成方法,无目标攻击效果较好,但未得到目标定向攻击效果和目标隐身攻击效果。通过寻优算法在不需要获取网络参数的条件下生成能够让目标隐身的黑盒对抗样本,但生成过程中需要查询模型输出结果的次数过23。物理攻击方面,通过改进的ShapeShifter方法并利用Faster R-CNN网络,在不同的距离和角度攻击中文停车牌,取得了较好的攻击效24

基于分类器网络的对抗样本生成方法不能有效攻击目标检测器,现有攻击目标检测器的对抗样本生成方法仅针对无目标攻击,攻击方式和效果有限。因此,针对YOLO目标检测器的对抗样本生成问题,提出了目标隐身攻击和目标定向攻击2种对抗样本生成方法。

1 对抗样本生成方法

1.1 对抗样本生成流程

首先,通过目标检测网络的训练参数得到网络输出信息,包括目标所在的包围框和对应的类别置信度;然后,设计一种损失函数,用于对抗样本所需梯度信息的生成;最后,通过线性化梯度信息获取针对目标检测网络的对抗样本。对抗样本生成流程如图1所示。

图1  对抗样本生成流程

Fig.1  Main framework of generating adversarial examples

对抗样本生成算法的具体实施过程如下:

(1)对抗样本初始化,将原始图像作为对抗样本的初始图像。

(2)将初始化的对抗样本输入目标检测器YOLO,得到目标的位置和置信度。

(3)损失函数设计。

(4)根据构建的损失函数计算对抗样本相应梯度。

(5)通过反向传播算法更新对抗样本。

(6)判断是否达到设置的迭代次数,若是则输出对抗样本,若不是则返回(2)进行下一次迭代。

1.2 目标隐身攻击对抗样本生成算法

目标隐身攻击具体表现为:YOLO目标检测器不能检测出图像中真实存在的目标,也就是目标在YOLO目标检测器下处于隐身状态。在针对目标隐身攻击的对抗样本生成方法中,需要寻找能够使目标类别的置信度最小的扰动,如下所示:

minr L(M(xori+r;θ),ŷ),s.t.ŷ=0 (1)

式中:L为损失函数;M为目标检测器;xori为原始图像;r为需要计算的对抗扰动;θ为模型参数;ŷ为模型对图像的预测值,在本研究中指的是目标类别的置信度。

通过损失函数的设计降低真实目标类别的置信度,生成隐身攻击所需的对抗样本梯度信息。设计的损失函数如下所示:

L=i=0N(Ci(M(x+r;θ))) (2)

式中:N为由目标检测器计算得到的目标个数;C为目标类别的置信度。

L范数约束下的对抗扰动为

xηt=αsign(xtL) (3)

L2范数约束下的对抗扰动为

xηt=αxtLxtL2 (4)

式(3)式(4)中:2L2范数归一化;α为学习率,α=0.02xtL为计算得到的相应梯度,其中t为迭代次数;sign为符号函数,即sign(ϕ)=-1,ϕ<00,ϕ=01,ϕ>0,其中ϕ为真实值。

对抗样本xadvt的计算式为

xadvt=xadvt-1-xηt (5)

1.3 目标定向攻击对抗样本生成算法

目标定向攻击具体表现为:原始类别为“car”的目标,YOLO目标检测器错误地将其识别为类别“bus”。在针对目标定向攻击的对抗样本生成方法中,需要寻找能够使目标类别的置信度最小的扰动,如下所示:

minr LMxori+r;θ,ŷ,s.t.ŷ=ŷ' (6)

式中:ŷ'为定向识别的目标类别置信度。

在针对目标定向攻击的对抗样本生成方法中,通过损失函数的设计降低被攻击目标类别的置信度,提高攻击定向目标类别的置信度,进而生成目标定向攻击中的对抗样本梯度。

通过损失函数的设计降低真实目标类别的置信度,进而生成目标攻击所需的对抗样本梯度信息。损失函数如下所示:

L=i=0N(Ci(M(x+r;θ))) (7)

L范数约束下的对抗扰动为

xηt=αsign(xtL) (8)

L2范数约束下的对抗扰动为

xηt=αxtLxtL2 (9)

对抗样本xadvt的计算式为

xadvt=xadvt-1+xηt (10)

1.4 算法伪代码

对抗样本生成算法的伪代码如图2所示。

图2  对抗样本生成算法的伪代码

Fig.2  Pseudo code for adversarial example generation algorithm

2 方法验证

2.1 数据集来源介绍

为验证数据的有效性,收集了Rail数据集和Cityscapes数据

25。Rail数据集为根据深圳龙华有轨电车运行的真实数据制作的有轨电车数据集,数据图像的原始分辨率为1 920×1 080,实验中将分辨率调整为960×540。Rail数据集包括了1 094张有轨电车运行环境图片,选择全部图片进行目标隐身攻击,选择115张包含类别“car”和“bus”的目标进行目标定向攻击。Cityscapes数据集为由车载相机采集的德国真实城市道路图像数据集,选取了包含类别“car”和“bus”的404张图片进行实验。为减少计算消耗,将图像分辨率由2 048×1 024调整为1 024×512。软件测试环境为TensorFlow 1.13.1和Keras 2.2.4。硬件环境为Intel(R) Core(TM) i7-7800X CPU, 3.50 GHz, 32 GB 内存, NVIDIA GeForce GTX 1080Ti 11GB。

2.2 目标隐身攻击实验结果

目标隐身攻击下的原始图像和对抗样本如图3所示。由图3可知,YOLO version3(YOLOv3)目标检测器能够有效识别原始图像中的目标。本方法生成的对抗样本导致YOLOv3目标检测器不能识别出目标(L2=0.2,L=0.05)。

图3  原始图像和目标隐身攻击下的对抗样本

Fig.3  Original image and adversarial example under object invisible attacks

平均准确率(mean average precision,αmAP)指标通常被用作目标检测数据集的评价指标。为了进一步评估对抗效果,利用平均准确率指标进行2种数据集的效果验证。实验中交并比(intersection over union,IoU)阈值设置为0.5,目标置信度设置为0.5。同时,改写了攻击分类器的对抗样本算法CI-FGSM

26和AI-FGSM27,用于攻击YOLOv3目标检测器,并与本方法进行比较,如图4所示。实验结果表明,在YOLOv3目标检测器的目标隐身攻击中,本方法相比其他2种方法攻击效果更加明显。

图4  基于目标隐身攻击对抗样本的平均准确率

Fig.4  Mean average precision of adversarial example under object invisible attacks

为了综合评估本方法的攻击效果,利用峰值信噪比(peak signal-to-noise ratio, βPSNR)和结构相似性(structural similarity, γSSIM)指标进行图像相似度比较,如图5图6所示。

图5  原始图像与对抗样本的峰值信噪比

Fig.5  Peak signal-to-noise ratio of original image and adversarial example

图6  原始图像与对抗样本的结构相似性

Fig.6  Structural similarity of original image and adversarial example

图4图5可见:本方法的峰值信噪比与CI-FGSM相近,但本方法保持了较高的攻击成功率;与AI-FGSM相比,本方法保持了较高的攻击成功率和较高的图像峰值信噪比。由图4图6可见:L2范数攻击下结构相似性相近,同时本方法保持了较高的攻击成功率;L范数攻击下,虽然本方法的结构相似性有所降低,但是仍保持了较高的攻击成功率。综合来看,本方法更加有效。

2.3 目标定向攻击实验结果

原始图像和目标定向攻击下对抗样本图像如图7所示。由图7可知,YOLOv3目标检测器能够有效识别原始图像中出现的目标。本方法生成的对抗样本则导致YOLOv3目标检测器将原本类别为“car”的目标识别成了“bus”(L2=1.0,L=0.05)。

图7  原始图像和目标定向攻击下的对抗样本

Fig.7  Original image and adversarial example under object targeted mis-detectable attacks

本方法对抗样本目标定向攻击是将原本类别为“car”的目标识别成了“bus”,因此利用类别“car”的识别召回率(recall rate, rRR)和类别“bus”的识别准确率(precision rate, pPR)指标进行对抗样本攻击效果的验证,如图8图9所示。实验结果表明,与其他方法相比,本方法具有更好的攻击效果。

图8  基于目标定向攻击的对抗样本召回率

Fig.8  Recall rate of adversarial example under object targeted mis-detectable attacks

图9  基于目标定向攻击的对抗样本准确率

Fig.9  Precision rate of adversarial example under object targeted mis-detectable attacks

从图8~10可见,本方法与CI-FGSM和AI-FGSM相比,峰值信噪比相近,同时本方法攻击效果较好。从图8图9图11可见:L2范数攻击下3种方法的结构相似性相近,同时本方法攻击效果较好;L范数攻击下,虽然本方法结构相似性有所降低,但是仍保持了较高的攻击成功率。因此,本方法更加有效。

图10  原始图像与对抗样本的峰值信噪比

Fig.10  Peak signal-to-noise ratio of original image and adversarial example

图11  原始图像与对抗样本的结构相似性

Fig.11  Structural similarity of original image and adversarial example

3 结语

针对YOLO目标检测器,提出了攻击效果更加全面的对抗样本生成方法。通过获取目标检测器的网络结构,设计对抗样本的损失函数,然后通过所提出的对抗样本生成方法获取对抗样本。在Rail数据集和Cityscapes数据集上进行了验证,表明该方法对YOLOv3目标检测器具有较高的攻击率,并且该方法能够实现目标隐身攻击和目标定向攻击。

作者贡献声明

黄世泽:提出对抗样本生成研究方案,最终版本修订。

张肇鑫:具体程序设计实现。

董德存:基于车载环境感知的可靠性提出研究思路。

秦晋哲:算法的验证和对比。

参考文献

1

HUANG ShizeZHAI YachanZHANG Miaomiaoet al. Arc detection and recognition in pantograph-catenary system based on convolutional neural network[J]. Information Sciences2019501363. [百度学术] 

2

黄世泽杨玲玉陶婷. 基于实例分割的有轨电车障碍物入侵检测及轨道识别方法[J]. 上海公路20212):89. [百度学术] 

HUANG ShizeYANG LingyuTAO Tinget al. A method of tram obstacle intrusion detection and track recognition based on instance segmentation[J]. Shanghai Highways20212):89. [百度学术] 

3

黄世泽陈威张帆. 基于弗雷歇距离的道岔故障诊断方法[J]. 同济大学学报(自然科学版)20184612):1690. [百度学术] 

HUANG ShizeCHEN WeiZHANG Fanet al. Method of turnout fault diagnosis based on Fréchet distance[J]. Journal of Tongji University (Natural Science)20184612):1690. [百度学术] 

4

TAO TingDONG DecunHUANG Shizeet al. Gap detection of switch machines in complex environment based on object detection and image processing[J]. Journal of Transportation Engineering, Part A: Systems,20201468): 04020083. [百度学术] 

5

HUANG ShizeYANG LingyuZHANG Fanet al. Turnout fault diagnosis based on CNNs with self-generated samples[J]. Journal of Transportation Engineering, Part A:Systems,20201469):1. [百度学术] 

6

SZEGEDY CZAREMBAWSUTSKEVER Iet al. Intriguing properties of neural networks[J/OL]. [2021-12-21]. https://arxiv.org/abs/1312.6199. [百度学术] 

7

MOOSAVI-DEZFOOLI S MFAWZI AFROSSARD P. DeepFool: a simple and accurate method to fool deep neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las VegasIEEE20162574-2582. [百度学术] 

8

GOODFELLOW I JSHLENS JSZEGEDY C. Explaining and harnessing adversarial examples[J/OL]. [2021-12-20]. https://arxiv.org/abs/1412.6572. [百度学术] 

9

PAPERNOT NMCDANIEL PJHA Set al. The limitations of deep learning in adversarial settings[C]//Proceedings of 2016 IEEE European Symposium on Security and Privacy(EuroS&P). Los AlamitosIEEE Computer Society2016372-387. [百度学术] 

10

CAELINI NWAGNER D. Towards evaluating the robustness of neural networks[C]//Processing of the 2017 IEEE Symposium on Security and Privacy (SP). Los AlamitosIEEE Computer Society201739-57. [百度学术] 

11

KURAKIN AGOODFELLOW I JBENGIO S. Adversarial examples in the physical world[J/OL]. [2021-07-08]. https://arxiv.org/abs/1607.02533. [百度学术] 

12

张华高浩然杨兴国. TargetedFool:一种实现有目标攻击的算法[J].西安电子科技大学学报2021481):149. [百度学术] 

ZHANG HuaGAO HaoranYANG Xingguoet al. TargetedFool: an algorithm for achieving targeted attacks[J]. Journal of Xidian University2021481):149. [百度学术] 

13

陈晋音陈治清郑海斌. 基于PSO的路牌识别模型黑盒对抗攻击方法[J]. 软件学报2020319):2785. [百度学术] 

CHEN JinyinCHEN ZhiqingZHENG Haibinet al. Black-box physical attack against road sign recognition model via PSO[J]. Journal of Software2020319):2785. [百度学术] 

14

陈晋音沈诗婧苏蒙蒙. 车牌识别系统的黑盒对抗攻击[J]. 自动化学报2021471):121. [百度学术] 

CHEN JinyinSHEN ShijingSU Mengmenget al. Black-box adversarial attack on license plate recognition system[J]. Acta Automatica Sinica2021471):121. [百度学术] 

15

马玉琨毋立芳简萌. 一种面向人脸活体检测的对抗样本生成算法[J]. 软件学报2019302):469. [百度学术] 

MA YukunWU LifangJIAN Menget al. Approach to generate adversarial examples for face-spoofing detection[J]. Journal of Software2019302):469. [百度学术] 

16

张翰韬. 面向图像目标检测的对抗攻击[D]. 合肥中国科学技术大学2020. [百度学术] 

ZHANG Hantao. Adversarial attack on image object detection[D]. HefeiUniversity of Science and Technology of China2020. [百度学术] 

17

刘嘉阳. 针对图像分类的对抗样本防御方法研究[D]. 合肥中国科学技术大学2020. [百度学术] 

LIU Jiayang. Research on defense against adversarial examples for image classification[D]. HefeiUniversity of Science and Technology of China2020. [百度学术] 

18

XIE CihangWANG JianyuZHANG Zhishuaiet al. Adversarial examples for semantic segmentation and object detection[C]//Proceedings of 2017 IEEE International Conference on Computer Vision (ICCV). Los AlamitosIEEE Computer Society20171378-1387. [百度学术] 

19

WEI XingxingLIANG SiyuanCHEN Ninget al. Transferable adversarial attacks for image and video object detection[J/OL]. [2021-11-30]. https://arxiv.org/abs/1811.12641. [百度学术] 

20

WANG YutongWANG KufengZHU Zhanxinget al. Adversarial attacks on faster R-CNN object detector[J]. Neurocomputing202038287. [百度学术] 

21

HUANG ShizeLIU XiaowenYANG Xiaoluet al. Two improved methods of generating adversarial examples against faster R-CNNs for tram environment perception systems[J]. Complexity202020206814263. [百度学术] 

22

XIAO YatiePUN Chi-ManLIU Bo. Fooling deep neural detection networks with adaptive object-oriented adversarial perturbation[J]. Pattern Recognition2021115107903. [百度学术] 

23

WANG YajieTAN Yu-anZHANG Wenjiaoet al. An adversarial attack on DNN-based black-box object detectors[J]. Journal of Network and Computer Applications2020161102634. [百度学术] 

24

HUANG ShizeLIU XiaowenYANG Xiaoluet al. An improved ShapeShifter method of generating adversarial examples for physical attacks on stop signs against faster R-CNNs[J]. Computers & Security2021104102120. [百度学术] 

25

CORDTS MOMRAN MRAMOS Set al. The Cityscapes dataset for semantic urban scene understanding[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Los AlamitosIEEE Computer Society20163213-3223. [百度学术] 

26

XIAO YatiePUN Chi-Man. Improving adversarial attacks on deep neural networks via constricted gradient-based perturbations[J]. Information Sciences2021571104. [百度学术] 

27

XIAO YatiePUN Chi-ManLIU Bo. Adversarial example generation with adaptive gradient search for single and ensemble deep neural network[J]. Information Sciences2020528147. [百度学术]