The work presented in this paper demonstrates our approach to intercepting a faster intruder UAV, inspired by the MBZIRC2020 Challenge 1. By leveraging the knowledge of the shape of the intruder's trajectory we are able to calculate the interception point. Target tracking is based on image processing by a YOLOv3 Tiny convolutional neural network, combined with depth calculation using a gimbal-mounted ZED Mini stereo camera. We use RGB and depth data from ZED Mini to extract the 3D position of the target, for which we devise a histogram-of-depth based processing to reduce noise. Obtained 3D measurements of target's position are used to calculate the position, the orientation and the size of a figure-eight shaped trajectory, which we approximate using lemniscate of Bernoulli. Once the approximation is deemed sufficiently precise, measured by Hausdorff distance between measurements and the approximation, an interception point is calculated to position the intercepting UAV right on the path of the target. The proposed method, which has been significantly improved based on the experience gathered during the MBZIRC competition, has been validated in simulation and through field experiments. The results confirmed that an efficient visual perception module which extracts information related to the motion of the target UAV as a basis for the interception, has been developed. The system is able to track and intercept the target which is 30% faster than the interceptor in majority of simulation experiments. Tests in the unstructured environment yielded 9 out of 12 successful results.


翻译:本文介绍的工作展示了我们在MBZIRC2020挑战1的启发下,利用对入侵者轨迹形状的了解,我们能够计算拦截点。目标跟踪以YOLOv3 Tiny connational convolutional神经网络的图像处理为基础,同时使用由Gimbal挂载的ZED Mini立体相机进行深度计算。我们利用ZED Mini的RGB和深度数据提取目标的3D位置,为此我们设计了一个基于深度直方图的处理,以减少噪音。通过对目标位置的3D测量,我们得以计算出拦截点的位置、方向和大小。对目标位置的3D测量,可以用来计算目标位置、方向、方向和大小。我们大约使用Bernnoulli的Lemncnational conculate 神经网络进行图像处理,同时使用Hausdorf在测量和近距离之间进行测量的深度计算。我们使用RGB和深度数据来将截获UAV正确位置定位在目标的路径上。我们提出的方法已经根据在MBZIRC的无深度处理中取得的经验大大改进了。在MZEC的模拟竞赛中收集结果中得出了位置,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟中,在模拟的进度为13次测试中,在模拟结果的轨道上的结果是经过了30次测试中,在模拟中,其成功取取取取取取取取取取而后,取取取取取取取。

0
下载
关闭预览

相关内容

MonoGRNet:单目3D目标检测的通用框架(TPAMI2021)
专知会员服务
17+阅读 · 2021年5月3日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【德勤】中国人工智能产业白皮书,68页pdf
专知会员服务
299+阅读 · 2019年12月23日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
已删除
将门创投
5+阅读 · 2018年3月21日
【推荐】树莓派/OpenCV/dlib人脸定位/瞌睡检测
机器学习研究会
9+阅读 · 2017年10月24日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
GAN猫的脸
机械鸡
11+阅读 · 2017年7月8日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
Arxiv
8+阅读 · 2018年6月19日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员