Event cameras are novel sensors that perceive the per-pixel intensity changes and output asynchronous event streams, showing lots of advantages over traditional cameras, such as high dynamic range (HDR) and no motion blur. It has been shown that events alone can be used for object tracking by motion compensation or prediction. However, existing methods assume that the target always moves and is the stand-alone object. Moreover, they fail to track the stopped non-independent moving objects on fixed scenes. In this paper, we propose a novel event-based object tracking framework, called SiamEvent, using Siamese networks via edge-aware similarity learning. Importantly, to find the part having the most similar edge structure of target, we propose to correlate the embedded events at two timestamps to compute the target edge similarity. The Siamese network enables tracking arbitrary target edge by finding the part with the highest similarity score. This extends the possibility of event-based object tracking applied not only for the independent stand-alone moving objects, but also for various settings of the camera and scenes. In addition, target edge initialization and edge detector are also proposed to prevent SiamEvent from the drifting problem. Lastly, we built an open dataset including various synthetic and real scenes to train and evaluate SiamEvent. Extensive experiments demonstrate that SiamEvent achieves up to 15% tracking performance enhancement than the baselines on the real-world scenes and more robust tracking performance in the challenging HDR and motion blur conditions.


翻译:活动相机是新颖的感应器,它能感知每像素强度变化和输出的同步事件流,显示与传统相机相比的许多优势,例如高动态范围(HDR)和没有运动模糊。已经显示,只有事件本身可以使用运动补偿或预测来跟踪物体。但是,现有的方法假设目标总是移动,并且是独立对象。此外,它们无法跟踪固定场景上被停止的非独立移动对象。在本文中,我们提议建立一个新型的事件跟踪框架,称为SiamEvent,通过边缘认知相似性学习使用Siamese网络。重要的是,为了找到目标最相似的边缘结构,我们提议在两个时间点将嵌入的事件联系起来,通过运动补偿或预测来跟踪目标的边缘。但是,现有的方法假设目标总是移动,并且是独立且不独立的非独立的移动对象。在固定场景上,我们提议一个基于事件的模糊对象跟踪框架,不仅适用于独立的独立移动对象,而且适用于各种相机和场景的设置。此外,在目标边缘初始初始和边缘探测器上,还有最相似的初始和边缘跟踪环境,我们所建的初始的初始和边缘探测器,还提议在两个轨道上进行SiamBrial的跟踪,以便,以便演示测测测测测测测测测,,以真实的测测测测测测,以整个,以整个,以真实的轨测测测测测测到整个,以真实的轨道,以真实的测,以真实性测。最后的测测测到整个,以真实性测到整个,以真实性测,以整个,以真实的轨测测测算。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
ICRA 2019 论文速览 | 基于Deep Learning 的SLAM
计算机视觉life
41+阅读 · 2019年7月22日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
开发者应当了解的18套机器学习平台
深度学习世界
5+阅读 · 2018年8月14日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年6月12日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
相关论文
Top
微信扫码咨询专知VIP会员