Visually-induced motion sickness (VIMS), a side effect of illusionary motions caused by visual stimulation, is one of the major obstacles to the widespread use of Virtual Reality (VR). Along with scene object information, the visual stimulation can be primarily indicated by the optical flow, which characterizes the motion pattern, such as the intensity and direction of the moving image. We estimated real-time optical flow in 360-degree videos targeted at immersive user interactive visualization based on the user's current viewport. The proposed method allows the estimation of the customized visual flow for each experience of dynamic 360-degree videos and is an improvement over previous methods which take into account a single optical flow value for the entire equirectangular frame. We applied our method to modulate the opacity of Granulated Rest Frames (GRF), a novel technique consisting of visual noise-like randomly distributed visual references that are stable to the user's body during the experience of immersive prerecorded 360-degree videos. We report the results of a preliminary one-day between-subject study with 18 participants where users watched a 2-minute high-intensity 360-degree video. Results show that GRF combined with real-time optical flow estimation may help users be more comfortable when they watch the 360-degree videos, although the improvement is not significant.


翻译:视觉诱导运动疾病(VIMS)是视觉刺激造成的幻觉运动的副作用,是广泛使用虚拟现实(VR)的一个主要障碍。 视觉刺激与现场物体信息一起,主要表现在光学流中,光学流是运动模式的特征,例如移动图像的强度和方向。 我们估计了360度视频中的实时光流,目标是根据用户当前屏幕的沉浸用户互动视觉化。 拟议的方法可以估计动态360度视频的每一种经历的定制视觉流,并且改进了以往的方法,其中考虑到整个等宽镜框架的单一光学流值。 我们运用了我们的方法来调整GRF(GRF)的不透明性,这是一种新型技术,它包括视觉噪音和随机散布的视觉参考,在用户用浸入式预先录制360度视频的体验中保持稳定。 我们报告了与18名参与者进行的初步为期一天的研究的结果,在这些参与者中,用户观看了2分钟的高光流流值流动值,但360度实际光学显示的GRF(G-xalalal-dalalim Videoal)用户可能以显著的G-modal-modal-modal-modalvical Vial viduvidudu

0
下载
关闭预览

相关内容

强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Call for Nominations: 2022 Multimedia Prize Paper Award
CCF多媒体专委会
0+阅读 · 2022年2月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年3月10日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
ACM TOMM Call for Papers
CCF多媒体专委会
2+阅读 · 2022年3月23日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Call for Nominations: 2022 Multimedia Prize Paper Award
CCF多媒体专委会
0+阅读 · 2022年2月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员