Mutual localization plays a crucial role in multi-robot systems. In this work, we propose a novel system to estimate the 3D relative pose targeting real-world applications. We design and implement a compact hardware module using active infrared (IR) LEDs, an IR fish-eye camera, an ultra-wideband (UWB) module and an inertial measurement unit (IMU). By leveraging IR light communication, the system solves data association between visual detection and UWB ranging. Ranging measurements from the UWB and directional information from the camera offer relative 3D position estimation. Combining the mutual relative position with neighbors and the gravity constraints provided by IMUs, we can estimate the 3D relative pose from every single frame of sensor fusion. In addition, we design an estimator based on the error-state Kalman filter (ESKF) to enhance system accuracy and robustness. When multiple neighbors are available, a Pose Graph Optimization (PGO) algorithm is applied to further improve system accuracy. We conduct experiments in various environments, and the results show that our system outperforms state-of-the-art accuracy and robustness, especially in challenging environments.
翻译:在多机器人系统中, 相互定位在多机器人系统中起着关键作用 。 在这项工作中, 我们提出一个新的系统来估计 3D 相对代表真实世界应用程序。 我们设计并使用主动红外线( IR) LED 、 IR 鱼眼照相机、 超广带( UWB) 模块和惯性测量单位( IMU), 来估计 3D 相对代表真实世界应用程序 。 该系统利用 IR 光通信, 解决视觉检测和 UWB 测距之间的数据关联 。 从 UWB 进行测距测量, 以及相机提供的方向信息提供相对的 3D 位置估计 。 结合与邻居的相对位置和IMU 提供的重力限制, 我们可以从传感器聚合的每个框架中估计 3D 相对代表。 此外, 我们根据错误状态 Kalman 过滤器( ESKF) 设计了一个估计器, 来提高系统准确性和稳健性。 当多邻居可用时, 将 Pose 图形 优化算法 (PGOGO) 用于进一步提高系统准确性 。 我们在不同环境中进行实验,,, 以及结果显示我们的系统在 具有挑战性环境 的准确性和强性 。