Mobile robots have become more and more popular in large-scale and crowded environments, such as airports, shopping malls, etc. However, due to sparse landmarks and crowd noise, localization in this environment is a great challenge. Furthermore, it is unreliable for the robot to navigate safely in crowds while considering human comfort. Thus, how to navigate safely with localization precision in that environment is a critical problem. To solve this problem, we proposed a curiosity-based framework that can find an effective path with the consideration of human comfort and crowds, localization uncertainty, and the cost-to-go to the target. Three parts are involved in the proposed framework: the distance assessment module, the Curiosity for Positive Content (CPC), namely information-rich areas, and the Curiosity for Negative Content (CNC), namely crowded areas. CPC is introduced when the real-time localization uncertainty evaluation is not satisfied. This factor is predicted through the propagation of uncertainty along the candidate trajectory to provoke the robot to approach localization-referenced landmarks. The Human Comfort and Crowd Density Map (HCCDM) based on the Gaussian Mixture Model (GMM) is established to calculate CNC, which drives the robot to bypass the crowd and consider human comfort. The evaluation is conducted in a series of large-scale and crowded environments. The results show that our method can find a feasible path that can consider the localization uncertainty while simultaneously avoiding the crowded area.


翻译:移动机器人在大规模和拥挤环境中越来越受欢迎,例如机场、购物中心等。然而,由于稀疏的地标和人群噪声,该环境中的定位是一个巨大的挑战。此外,考虑到人体舒适度,机器人在人群中安全导航也是不可靠的。因此,在考虑定位准确性的同时,如何在这种环境中安全导航是一个关键问题。为了解决这个问题,我们提出了一个基于好奇心的框架,可以寻找一个有效的路径,考虑到人体舒适度和人群、定位不确定性以及到目标的成本。该提出的框架包括三个部分:距离评估模块,Curiosity for Positive Content (CPC),即信息丰富的区域,和Curiosity for Negative Content (CNC),即拥挤的区域。当实时定位不确定性评估不满足时引入CPC,通过沿着候选轨迹的不确定性传播来预测这个因素,从而促使机器人接近定位参考地标。基于高斯混合模型(GMM)建立了基于人体舒适度和人群密度地图(HCCDM)来计算CNC,从而驱动机器人绕过人群并考虑人体舒适度。评估是在一系列大规模和拥挤的环境中进行的。结果表明,我们的方法可以找到一个可行的路径,可以考虑到定位不确定性,并同时避免拥挤区域。

0
下载
关闭预览

相关内容

多智能体顶级会议AAMAS2022最佳论文
专知会员服务
60+阅读 · 2022年5月15日
机器学习组合优化
专知会员服务
108+阅读 · 2021年2月16日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
【泡泡一分钟】DS-SLAM: 动态环境下的语义视觉SLAM
泡泡机器人SLAM
23+阅读 · 2019年1月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月10日
Arxiv
30+阅读 · 2021年7月7日
Arxiv
24+阅读 · 2021年6月25日
VIP会员
相关VIP内容
多智能体顶级会议AAMAS2022最佳论文
专知会员服务
60+阅读 · 2022年5月15日
机器学习组合优化
专知会员服务
108+阅读 · 2021年2月16日
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
【泡泡一分钟】DS-SLAM: 动态环境下的语义视觉SLAM
泡泡机器人SLAM
23+阅读 · 2019年1月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员