Robots are used by humans not only as tools but also to interactively assist and cooperate with humans, thereby forming physical human-robot interactions. In these interactions, there is a risk that a feedback loop causes unstable force interaction, in which force escalation exposes a human to danger. Previous studies have analyzed the stability of voluntary interaction but have neglected involuntary behavior in the interaction. In contrast to the previous studies, this study considered the involuntary behavior: a human's force reproduction bias for discrete-event human-robot force interaction. We derived an asymptotic stability condition based on a mathematical bias model and found that the bias asymptotically stabilizes a human's implicit equilibrium point far from the implicit equilibrium point and destabilizes the point near the point. The bias model, convergence of the interaction toward the implicit equilibrium point, and divergence around the point were consistently verified via behavioral experiments under three kinds of interactions using three different body parts: a hand finger, wrist, and foot. Our results imply that humans implicitly secure a stable and close relationship between themselves and robots with their involuntary behavior.


翻译:机器人不仅被人类用作工具,还被用来与人类进行互动性协助与合作,从而形成人体-机器人相互作用。在这些相互作用中,存在一种风险,即反馈循环会导致不稳定的武力互动,使人类面临危险。以前的研究分析了自愿互动的稳定性,但忽视了互动中的非自愿行为。与以往的研究相比,本研究考虑了非自愿行为:人类对离散事件人体-机器人相互作用的强制生殖偏向。我们根据数学偏差模型得出了一种无药可依的稳定条件,发现这种偏差使人类隐含的平衡点远离隐含的平衡点,并动摇了点附近的平衡点。偏差模式、相互作用与隐含的平衡点的趋同以及点周围的分歧,通过三种不同身体部分:手指、手腕和脚的动作实验得到了一致的验证。我们的结果表明,人类隐含着自己和机器人之间与其非自愿行为之间的稳定和密切关系。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年8月17日
VIP会员
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
Top
微信扫码咨询专知VIP会员