我们提出了一种单一图像视图合成方法,允许从单一输入图像生成新的场景视图。这是一个挑战,因为它需要从一个单一的图像全面理解3D场景。因此,目前的方法通常使用多幅图像,在地面真实深度上训练,或者局限于合成数据。为此,我们提出了一种新颖的端到端模型;它被训练在真实的图像上,没有使用任何真实的3D信息。为此,我们引入了一种新的可微点云渲染器,用于将潜在的3D点云特征转换为目标视图。我们的细化网络对投影特征进行解码,插入缺失区域,生成逼真的输出图像。我们的生成模型内部的3D组件允许在测试时对潜在特征空间进行可解释的操作,例如,我们可以从单个图像动画轨迹。与以前的工作不同,我们可以生成高分辨率的图像,并推广到其他输入分辨率。我们在Matterport、Replica和RealEstate10K数据集上超越基线和前期工作。

成为VIP会员查看完整内容
28

相关内容

CVPR is the premier annual computer vision event comprising the main conference and several co-located workshops and short courses. With its high quality and low cost, it provides an exceptional value for students, academics and industry researchers. CVPR 2020 will take place at The Washington State Convention Center in Seattle, WA, from June 16 to June 20, 2020. http://cvpr2020.thecvf.com/
【CVPR2020-Facebook AI】前置不变表示的自监督学习
专知会员服务
46+阅读 · 2020年4月19日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
【泡泡一分钟】在CPU上进行实时无监督单目深度估计
泡泡机器人SLAM
17+阅读 · 2019年5月10日
CVPR 2019 | 全新缺失图像数据插补框架—CollaGAN
PaperWeekly
9+阅读 · 2019年5月5日
CVPR 2019 | PointConv:在点云上高效实现卷积操作
机器之心
10+阅读 · 2019年4月21日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
通过视频着色进行自监督跟踪
谷歌开发者
3+阅读 · 2018年7月11日
基于GAN的极限图像压缩框架
论智
11+阅读 · 2018年4月15日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
Arxiv
6+阅读 · 2018年1月29日
Arxiv
9+阅读 · 2018年1月4日
VIP会员
相关资讯
【泡泡一分钟】在CPU上进行实时无监督单目深度估计
泡泡机器人SLAM
17+阅读 · 2019年5月10日
CVPR 2019 | 全新缺失图像数据插补框架—CollaGAN
PaperWeekly
9+阅读 · 2019年5月5日
CVPR 2019 | PointConv:在点云上高效实现卷积操作
机器之心
10+阅读 · 2019年4月21日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
通过视频着色进行自监督跟踪
谷歌开发者
3+阅读 · 2018年7月11日
基于GAN的极限图像压缩框架
论智
11+阅读 · 2018年4月15日
微信扫码咨询专知VIP会员