Motion blur caused by the moving of the object or camera during the exposure can be a key challenge for visual object tracking, affecting tracking accuracy significantly. In this work, we explore the robustness of visual object trackers against motion blur from a new angle, i.e., adversarial blur attack (ABA). Our main objective is to online transfer input frames to their natural motion-blurred counterparts while misleading the state-of-the-art trackers during the tracking process. To this end, we first design the motion blur synthesizing method for visual tracking based on the generation principle of motion blur, considering the motion information and the light accumulation process. With this synthetic method, we propose optimization-based ABA (OP-ABA) by iteratively optimizing an adversarial objective function against the tracking w.r.t. the motion and light accumulation parameters. The OP-ABA is able to produce natural adversarial examples but the iteration can cause heavy time cost, making it unsuitable for attacking real-time trackers. To alleviate this issue, we further propose one-step ABA (OS-ABA) where we design and train a joint adversarial motion and accumulation predictive network (JAMANet) with the guidance of OP-ABA, which is able to efficiently estimate the adversarial motion and accumulation parameters in a one-step way. The experiments on four popular datasets (e.g., OTB100, VOT2018, UAV123, and LaSOT) demonstrate that our methods are able to cause significant accuracy drops on four state-of-the-art trackers with high transferability. Please find the source code at \href{https://github.com/tsingqguo/ABA}{https://github.com/tsingqguo/ABA}


翻译:在这项工作中,我们探索视觉物体跟踪器的稳健性,防止从一个新角度(即对抗性模糊攻击(ABA))运动模糊。我们的主要目标是在跟踪过程中将输入框在线传输到自然运动勃发的对等方,同时误导最先进的对等方。为此,我们首先根据运动的生成原则,考虑到运动的准确性和光累积过程,设计运动的模糊合成视觉跟踪方法,从而对视觉物体进行跟踪跟踪。在这项工作中,我们探索视觉物体跟踪器跟踪器跟踪器的稳健性。我们利用这一合成方法,提出以优化为基础的ABA(OP-ABA)(OP-ABA)(OP-ABA)(O-ABA)(O-AB)(O-AB) (O) (OBA(O) (OS-AB) (O) (OBA(O) (O-BA(O) (OBA) (O) (ODA(O) (ODA) (ODA-OD) (ODA(OD) (OL) (OL) (ODA(OD) (OD) (ODA) (OD) (OD) (OD) (OLI) (OD) (OD) (OL) (OL) (O) (OD) (OD) (OD) (OD) (OD) (OD) (OD) (OD) (O) (O) (O) (O) (O) (OD) (OD) (OD) (OD(O) (O) (O) (O) (O) (O) (O) (O) (O) (O) (O) (O) (O) (O) (O(O) (O) (O) (O) (O) (O) (O) (O) (O) (O) (OD) (O) (OD) (O) (O) (O) (O) (O) (O) (O) (O) (OD) (O) (O) (O) (O) (O) (O) (OD) (O) (O) (O) (O) (OD) (OD) (

0
下载
关闭预览

相关内容

标跟踪是指:给出目标在跟踪视频第一帧中的初始状态(如位置,尺寸),自动估计目标物体在后续帧中的状态。 目标跟踪分为单目标跟踪和多目标跟踪。 人眼可以比较轻松的在一段时间内跟住某个特定目标。但是对机器而言,这一任务并不简单,尤其是跟踪过程中会出现目标发生剧烈形变、被其他目标遮挡或出现相似物体干扰等等各种复杂的情况。过去几十年以来,目标跟踪的研究取得了长足的发展,尤其是各种机器学习算法被引入以来,目标跟踪算法呈现百花齐放的态势。2013年以来,深度学习方法开始在目标跟踪领域展露头脚,并逐渐在性能上超越传统方法,取得巨大的突破。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
【论文】欺骗学习(Learning by Cheating)
专知会员服务
26+阅读 · 2020年1月3日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
stackGAN通过文字描述生成图片的V2项目
CreateAMind
3+阅读 · 2018年1月1日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
5+阅读 · 2020年10月22日
Learning Discriminative Model Prediction for Tracking
Arxiv
8+阅读 · 2018年6月19日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
stackGAN通过文字描述生成图片的V2项目
CreateAMind
3+阅读 · 2018年1月1日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Top
微信扫码咨询专知VIP会员