Natural Human-Robot Interaction (HRI) is one of the key components for service robots to be able to work in human-centric environments. In such dynamic environments, the robot needs to understand the intention of the user to accomplish a task successfully. Towards addressing this point, we propose a software architecture that segments a target object from a crowded scene, indicated verbally by a human user. At the core of our system, we employ a multi-modal deep neural network for visual grounding. Unlike most grounding methods that tackle the challenge using pre-trained object detectors via a two-stepped process, we develop a single stage zero-shot model that is able to provide predictions in unseen data. We evaluate the performance of the proposed model on real RGB-D data collected from public scene datasets. Experimental results showed that the proposed model performs well in terms of accuracy and speed, while showcasing robustness to variation in the natural language input.


翻译:人类自然机器人互动(HRI)是服务机器人能够在以人类为中心的环境中工作的关键组成部分之一。在这种动态环境中,机器人需要理解用户成功完成任务的意图。为了解决这个问题,我们提议了一个软件结构,从拥挤的场景中将目标物体分割成一个部分,由人类用户口头表示。在我们系统的核心,我们使用一个多模式的深层神经网络进行视觉地面定位。与大多数使用预先训练的物体探测器通过两步进程应对挑战的地面方法不同,我们开发了一个单一阶段零弹模型,能够提供无法见数据的预测。我们评估了从公共场景数据集收集的真实 RGB-D数据的拟议模型的性能。实验结果显示,拟议的模型在准确性和速度方面运行良好,同时展示了自然语言输入的变化的稳健性。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
【ICIP2019教程-NVIDIA】图像到图像转换,附7份PPT下载
专知会员服务
53+阅读 · 2019年11月20日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
小样本学习(Few-shot Learning)综述
PaperWeekly
120+阅读 · 2019年4月1日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年5月10日
Arxiv
0+阅读 · 2021年4月3日
Arxiv
7+阅读 · 2018年12月5日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
Arxiv
3+阅读 · 2017年11月21日
VIP会员
Top
微信扫码咨询专知VIP会员