Augmented Reality (AR) embeds digital information into objects of the physical world. Data can be shown in-situ, thereby enabling real-time visual comparisons and object search in real-life user tasks, such as comparing products and looking up scores in a sports game. While there have been studies on designing AR interfaces for situated information retrieval, there has only been limited research on AR object labeling for visual search tasks in the spatial environment. In this paper, we identify and categorize different design aspects in AR label design and report on a formal user study on labels for out-of-view objects to support visual search tasks in AR. We design three visualization techniques for out-of-view object labeling in AR, which respectively encode the relative physical position (height-encoded), the rotational direction (angle-encoded), and the label values (value-encoded) of the objects. We further implement two traditional in-view object labeling techniques, where labels are placed either next to the respective objects (situated) or at the edge of the AR FoV (boundary). We evaluate these five different label conditions in three visual search tasks for static objects. Our study shows that out-of-view object labels are beneficial when searching for objects outside the FoV, spatial orientation, and when comparing multiple spatially sparse objects. Angle-encoded labels with directional cues of the surrounding objects have the overall best performance with the highest user satisfaction. We discuss the implications of our findings for future immersive AR interface design.


翻译:增强现实(AR) 将数字信息嵌入物理世界的物体中。 数据可以在现场显示, 从而能够在实时用户任务中进行实时视觉比较和对象搜索, 如比较产品和在体育比赛中查找得分。 虽然已经对设计用于定位信息检索的AR界面进行了研究, 但是对用于空间环境中视觉搜索任务的AR 对象标签进行了有限的研究。 在本文中, 我们发现并分类了AR 标签设计中的不同设计方面, 并报告了关于外部对象标签的正式用户研究, 以支持AR 中的视觉搜索任务。 我们设计了三种用于实时用户任务外标签的可视化技术, 如实时标签标签标签标签标签, 分别编码相对物理位置( h8- 编码)、 旋转方向( angle- 编码) 和 标签值( 编码) 。 我们进一步应用两种传统的视觉对象标签技术, 标签位于相关对象的旁边( 状态) 或 AR Fov ( 边界) 的边缘。 我们用这五种不同标签的视觉对象的可视像化技术, 讨论未来视觉定位目标的精确定位, 当我们三个视觉搜索对象时, 的视觉定位标签的精确定位对象的定位对象的精确目标的精确定位, 时, 我们用三个搜索对象的精确定位的定位的定位的定位的定位的定位的定位的定位的定位, 比较了 我们的定位的定位的定位, 。

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
163+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机视觉的不同任务
专知
5+阅读 · 2018年8月27日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
14+阅读 · 2017年11月16日
Arxiv
0+阅读 · 2022年2月11日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
20+阅读 · 2020年6月8日
The Measure of Intelligence
Arxiv
6+阅读 · 2019年11月5日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机视觉的不同任务
专知
5+阅读 · 2018年8月27日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
14+阅读 · 2017年11月16日
相关论文
Arxiv
0+阅读 · 2022年2月11日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
20+阅读 · 2020年6月8日
The Measure of Intelligence
Arxiv
6+阅读 · 2019年11月5日
Top
微信扫码咨询专知VIP会员