Research in unpaired video translation has mainly focused on short-term temporal consistency by conditioning on neighboring frames. However for transfer from simulated to photorealistic sequences, available information on the underlying geometry offers potential for achieving global consistency across views. We propose a novel approach which combines unpaired image translation with neural rendering to transfer simulated to photorealistic surgical abdominal scenes. By introducing global learnable textures and a lighting-invariant view-consistency loss, our method produces consistent translations of arbitrary views and thus enables long-term consistent video synthesis. We design and test our model to generate video sequences from minimally-invasive surgical abdominal scenes. Because labeled data is often limited in this domain, photorealistic data where ground truth information from the simulated domain is preserved is especially relevant. By extending existing image-based methods to view-consistent videos, we aim to impact the applicability of simulated training and evaluation environments for surgical applications. Code and data: http://opencas.dkfz.de/video-sim2real.


翻译:在未受重视的视频翻译研究中,主要侧重于短期时间一致性,以近身框架为条件。然而,在模拟到摄影现实序列的转移方面,关于基本几何学的现有信息有可能实现各种观点的全球一致性。我们提出一种新颖的方法,将未受重视的图像翻译与神经转化相结合,将模拟到光真化外科腹部的外科手术场景。通过引入全球可学习的素材和光异性视觉一致性损失,我们的方法产生任意观点的一致翻译,从而能够实现长期一致的视频合成。我们设计和测试我们的模型,以便从最小侵入性外科腹部镜中生成视频序列。由于贴标签的数据在这一领域往往有限,因此光真实性数据特别相关。通过将现有基于图像的方法推广到视觉一致的视频,我们的目标是影响模拟培训和评价环境对外科应用的适用性。代码和数据:http://opencas.dkfz.de/vicio-sime。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
31+阅读 · 2021年6月12日
因果图,Causal Graphs,52页ppt
专知会员服务
243+阅读 · 2020年4月19日
专知会员服务
109+阅读 · 2020年3月12日
MIT新书《强化学习与最优控制》
专知会员服务
273+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
“CVPR 2020 接受论文列表 1470篇论文都在这了
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
计算机视觉领域顶会CVPR 2018 接受论文列表
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
Learning Blind Video Temporal Consistency
Arxiv
3+阅读 · 2018年8月1日
Arxiv
4+阅读 · 2018年3月14日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员