Direct communication between humans and autonomous underwater vehicles (AUVs) is a relatively underexplored area in human-robot interaction (HRI) research, although many tasks (\eg surveillance, inspection, and search-and-rescue) require close diver-robot collaboration. Many core functionalities in this domain are in need of further study to improve robotic capabilities for ease of interaction. One of these is the challenge of autonomous robots approaching and positioning themselves relative to divers to initiate and facilitate interactions. Suboptimal AUV positioning can lead to poor quality interaction and lead to excessive cognitive and physical load for divers. In this paper, we introduce a novel method for AUVs to autonomously navigate and achieve diver-relative positioning to begin interaction. Our method is based only on monocular vision, requires no global localization, and is computationally efficient. We present our algorithm along with an implementation of said algorithm on board both a simulated and physical AUV, performing extensive evaluations in the form of closed-water tests in a controlled pool. Analysis of our results show that the proposed monocular vision-based algorithm performs reliably and efficiently operating entirely on-board the AUV.


翻译:人类与自主水下飞行器(AUVs)之间的直接通信是人类机器人互动(HRI)研究中一个相对不足探索的领域,尽管许多任务(((eg)监视、检查、搜索和搜索-救援)都需要潜水器-机器人的密切协作。这一领域的许多核心功能都需要进一步研究,以提高机器人的相互作用能力,其中一个挑战是自主机器人接近潜水器并定位自己与潜水器相对,以启动和便利互动。亚非最佳的AUV定位可能导致低质量互动,并导致潜水员过度的认知和物理负荷。在本文件中,我们引入了一种新型方法,使AUVs自主导航,并实现潜水器-相对定位,以开始互动。我们的方法仅以单视镜为基础,不需要全球本地化,而且计算效率很高。我们提出算法,同时在模拟和物理的AUV上实施上述算法,以封闭水测试的形式在受控的游泳池中进行广泛的评估。分析结果显示,拟议的基于视像的算法在AUV板上完全可靠和高效地运行。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
[WWW2021]图结构估计神经网络
专知会员服务
42+阅读 · 2021年3月29日
专知会员服务
19+阅读 · 2020年9月2日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】RoomNet:端到端房屋布局估计
泡泡机器人SLAM
18+阅读 · 2018年12月4日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
SLAM技术框架
计算机视觉life
6+阅读 · 2017年6月19日
Arxiv
5+阅读 · 2018年10月4日
VIP会员
相关资讯
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡一分钟】RoomNet:端到端房屋布局估计
泡泡机器人SLAM
18+阅读 · 2018年12月4日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
SLAM技术框架
计算机视觉life
6+阅读 · 2017年6月19日
Top
微信扫码咨询专知VIP会员