作者 | BBuf
单位 | 北京鼎汉技术有限公司 算法工程师(CV)
编辑 | 唐里
下面要介绍的论文始发于 ICCV2019:
论文标题:Towards Adversarially Robust Object Detection
论文地址:https://arxiv.org/abs/1907.10310
目标检测是一项重要的视觉任务,已成为许多视觉系统中不可或缺的组成部分,其鲁棒性已成为实际应用中重要的性能指标。虽然最近的许多的研究表明,目标检测模型容易受到对抗攻击,但很少有人致力于提高其鲁棒性。
本文首先从模型鲁棒性的角度,回顾和系统地分析了目标检测器和近年来发展起来的各种攻击方法。然后,我们提出了目标检测的多任务学习观点,并确定了任务损失的不对称作用。我们进一步开发了一种对抗训练方法,可以利用多种攻击源来提高检测模型的鲁棒性。在PASCAL-VOC和MS-COCO上进行的大量实验证明了该方法的有效性。
研究背景
点击“阅读原文”加入 ICCV顶会交流 小组