Inertial odometry is an attractive solution to the problem of state estimation for agile quadrotor flight. It is inexpensive, lightweight, and it is not affected by perceptual degradation. However, only relying on the integration of the inertial measurements for state estimation is infeasible. The errors and time-varying biases present in such measurements cause the accumulation of large drift in the pose estimates. Recently, inertial odometry has made significant progress in estimating the motion of pedestrians. State-of-the-art algorithms rely on learning a motion prior that is typical of humans but cannot be transferred to drones. In this work, we propose a learning-based odometry algorithm that uses an inertial measurement unit (IMU) as the only sensor modality for autonomous drone racing tasks. The core idea of our system is to couple a model-based filter, driven by the inertial measurements, with a learning-based module that has access to the thrust measurements. We show that our inertial odometry algorithm is superior to the state-of-the-art filter-based and optimization-based visual-inertial odometry as well as the state-of-the-art learned-inertial odometry in estimating the pose of an autonomous racing drone. Additionally, we show that our system is comparable to a visual-inertial odometry solution that uses a camera and exploits the known gate location and appearance. We believe that the application in autonomous drone racing paves the way for novel research in inertial odometry for agile quadrotor flight.


翻译:惯性奥氏测量法是州内快速二次飞行估算问题的有吸引力的解决方案。 它价格低廉、重量轻,且不受感官退化的影响。 但是, 仅依靠整合惯性测量法进行国家估计是不可行的。 此类测量中存在的错误和时间差异导致构成估计值的大幅漂移。 最近, 惯性奥氏测量法在估计行人运动方面取得重大进展。 州一级演算法依赖于先学人类典型但不能转移到无人机的运动。 在这项工作中, 我们建议基于学习的奥氏测量法算法, 使用惯性测量仪(IMU)作为独立无人机赛任务的唯一感官模式。 我们系统的核心思想是将基于模型的过滤器与基于学习的模型的模块相匹配, 该模块可以访问推量测量。 我们的惯性奥氏式演算法, 与基于常规的筛选法和基于优化的直观- 无人机操作法的机路运测算法相比, 我们所了解的直观和直观- 轨道的飞行方法的直观-, 显示我们所了解的直观- 机- 直观- 的机的机- 系统- 的直观和直观- 分析- 系统- 的智能- 了解- 的智能- 了解- 的智能- 的智能- 的智能- 的智能- 的智能- 了解- 的智能- 的智能- 的智能- 的智能- 的智能- 的智能- 的、我们所了解- 了解- 了解- 了解- 了解- 的智能- 的、了解- 的、了解- 了解- 了解- 了解- 了解- 了解- 了解- 度- 了解- 度- 度- 度- 的- 的- 的- 的- 的- 的- 的- 的- 的- 的- 的- 的- 的- 了解- 的- 了解- 度- 了解- 度- 度- 度- 度- 度- 的- 度- 的- 度- 的- 的- 和视觉- 的- 和对等- 了解- 了解- 了解- 了解- 了解-</s>

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
专知会员服务
42+阅读 · 2020年12月18日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
ICRA 2019 论文速览 | 基于Deep Learning 的SLAM
计算机视觉life
41+阅读 · 2019年7月22日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
27+阅读 · 2023年1月5日
Arxiv
20+阅读 · 2021年9月22日
Arxiv
24+阅读 · 2021年6月25日
Arxiv
12+阅读 · 2021年6月21日
Adaptive Synthetic Characters for Military Training
Arxiv
46+阅读 · 2021年1月6日
VIP会员
相关VIP内容
不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
专知会员服务
42+阅读 · 2020年12月18日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员