We propose a method that stimulates music vibration (generated from and synchronized with musical signals), modulated by the direction and distance to the target, on both sides of a user's neck with Hapbeat, a necklace-type haptic device. We conducted three experiments to confirm that the proposed method can achieve both haptic navigation and enhance the music listening experience. Experiment 1 consisted of conducting a questionnaire survey to examine the effect of stimulating music vibrations. Experiment 2 evaluated the accuracy (deg) of users' ability to adjust their direction toward a target using the proposed method. Experiment 3 examined the ability of four different navigation methods by performing navigation tasks in a virtual environment. The results of the experiments showed that stimulating music vibration enhanced the music listening experience, and that the proposed method is able to provide sufficient information to guide the users: accuracy in identifying directions was about 20\textdegree, participants reached the target in all navigation tasks, and in about 80\% of all trials participants reached the target using the shortest route. Furthermore, the proposed method succeeded in conveying distance information, and Hapbeat can be combined with conventional navigation methods without interfering with music listening.


翻译:我们提出了一种刺激音乐振动(由音乐信号产生并与音乐信号同步)的方法,在用户脖子两侧与Hapbeat这一项链型创用装置的两侧以方向和距离调制,在用户颈部与Hapbeat之间的方向和目标之间调控。我们进行了三个实验,以确认拟议方法既能实现顺畅导航,又能增强音乐监听经验。实验1包括进行问卷调查,以研究刺激音乐振动的效果。实验2评估了用户利用拟议方法调整方向向目标方向的能力的准确度(度)。实验3通过在虚拟环境中执行导航任务,审查了四种不同导航方法的能力。实验结果表明,刺激音乐振动增强了音乐监听经验,而拟议方法能够提供充分的信息来指导用户:确定方向的准确度约为20度,参与者在所有导航任务中达到了目标,在所有试验参与者中,大约80 ⁇ 到达了目标,使用最短的路线。此外,拟议方法成功地传递了远程信息,Hapeaty可以与常规导航方法结合起来,而不会干扰音乐听。

0
下载
关闭预览

相关内容

【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
征稿 | CFP:Special Issue of NLP and KG(JCR Q2,IF2.67)
开放知识图谱
1+阅读 · 2022年4月4日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium7
中国图象图形学学会CSIG
0+阅读 · 2021年11月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年2月23日
VIP会员
相关资讯
征稿 | CFP:Special Issue of NLP and KG(JCR Q2,IF2.67)
开放知识图谱
1+阅读 · 2022年4月4日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium9
中国图象图形学学会CSIG
0+阅读 · 2021年12月17日
【ICIG2021】Check out the hot new trailer of ICIG2021 Symposium7
中国图象图形学学会CSIG
0+阅读 · 2021年11月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员