Selection is one of the fundamental user interactions in virtual reality (VR) and 3D user interaction, and raycasting has been one of the most popular object selection techniques in VR. However, the selection of small or distant objects through raycasting has been known to be difficult. To overcome this limitation, this study proposed a new technique called ViewfinderVR for improved selection of distant objects in VR, utilizing a virtual viewfinder panel with a modern adaptation of the through-the-lens metaphor. ViewfinderVR enables faster and more accurate target selection by allowing customization of the interaction space projected onto a virtual panel within reach, and users can select objects reflected on the panel with either ray-based or touch interaction. Experimental results of Fitts' law-based tests with 20 participants showed that ViewfinderVR outperformed traditional raycasting in terms of task performance (movement time, error rate, and throughput) and perceived workload (NASA-TLX ratings), where touch interaction was superior to ray-based interaction. The associated user behavior was also recorded and analyzed to understand the underlying reasons for the improved task performance and reduced workload. The proposed technique can be used in VR applications to enhance the selection of distant objects.


翻译:虚拟现实(VR)和3D用户互动中的基本用户互动,是虚拟现实(VR)和3D用户互动中的基本用户互动关系之一,而光谱观测是VR中最受欢迎的物体选择技术之一。然而,通过光谱观测选择小物体或遥远物体是已知的困难。为克服这一限制,本研究报告提议了一种名为ViewfinderVR的新技术,用于改进VR中远程物体的选择,利用虚拟视图显示器面板,对通过镜头的隐喻进行现代调整。 ViewfinderVR通过允许将预测的互动空间定制在可达的虚拟面板上,从而使得能够更快和更准确地选择目标。用户可以通过光谱射或触的交互方式选择在板上反映的物体。 Fitts法律测试的实验结果显示,ViftinderVR在任务性能(运动时间、错误率和吞吐量)和感知工作量(NASA-TLX评级)方面超越了接触优于光基互动的范围,因此相关的用户行为也可以被记录和分析,以了解改进任务选择的物体的基本原因。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
24+阅读 · 2020年3月11日
VIP会员
相关VIP内容
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员