Most 3D shape completion approaches rely heavily on partial-complete shape pairs and learn in a fully supervised manner. Despite their impressive performances on in-domain data, when generalizing to partial shapes in other forms or real-world partial scans, they often obtain unsatisfactory results due to domain gaps. In contrast to previous fully supervised approaches, in this paper we present ShapeInversion, which introduces Generative Adversarial Network (GAN) inversion to shape completion for the first time. ShapeInversion uses a GAN pre-trained on complete shapes by searching for a latent code that gives a complete shape that best reconstructs the given partial input. In this way, ShapeInversion no longer needs paired training data, and is capable of incorporating the rich prior captured in a well-trained generative model. On the ShapeNet benchmark, the proposed ShapeInversion outperforms the SOTA unsupervised method, and is comparable with supervised methods that are learned using paired data. It also demonstrates remarkable generalization ability, giving robust results for real-world scans and partial inputs of various forms and incompleteness levels. Importantly, ShapeInversion naturally enables a series of additional abilities thanks to the involvement of a pre-trained GAN, such as producing multiple valid complete shapes for an ambiguous partial input, as well as shape manipulation and interpolation.


翻译:大部分 3D 形状完成方法都严重依赖部分完整的形状配对, 并且以完全监督的方式学习。 尽管在内部数据上的表现给人留下深刻印象, 在以其他形式或现实世界部分扫描的形式进行部分形状时, 当它们由于领域差距而一般化为部分形状时, 它们往往会获得不满意的结果。 与以前完全监督的方法相比, 我们在此文件中介绍的形状转换方法, 它引入了基因反反转网络( GAN) 来首次塑造完成过程。 形状转换使用经过预先训练的完整形状GAN, 通过寻找一个能提供最能重建部分投入的完整形状的潜值代码。 这样, ShapeInversal 转换不再需要配对培训数据, 并且能够将先前所捕捉的丰富基因化模型纳入一个训练有素的基因模型。 在 ShapeNet 基准中, 拟议的形状转换比SOTA (GAN) 不受监督的转换方法更能第一次塑造完成。 形状转换使用配对数据, 也展示了惊人的通用能力, 给真实世界的扫描和部分输入效果, 和不完全的系统化前的组合, 能够产生一个完整的组合, 完全的系统化前的模型,, 完整的模型,, 完整的组合化成一个完整的输入。

0
下载
关闭预览

相关内容

【上海交大】<操作系统> 2021课程,附课件
专知会员服务
42+阅读 · 2021年4月3日
专知会员服务
61+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
A Self-supervised Method for Entity Alignment
Arxiv
1+阅读 · 2021年6月17日
Arxiv
3+阅读 · 2020年7月16日
3D Face Modeling from Diverse Raw Scan Data
Arxiv
5+阅读 · 2019年2月13日
Arxiv
7+阅读 · 2018年11月27日
VIP会员
相关VIP内容
【上海交大】<操作系统> 2021课程,附课件
专知会员服务
42+阅读 · 2021年4月3日
专知会员服务
61+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员