Transferring the style from one image onto another is a popular and widely studied task in computer vision. Yet, learning-based style transfer in the 3D setting remains a largely unexplored problem. To our knowledge, we propose the first learning-based approach for style transfer between 3D objects providing disentangled content and style representations. Our method allows to combine the content and style of a source and target 3D model to generate a novel shape that resembles in style the target while retaining the source content. The proposed framework can synthesize new 3D shapes both in the form of point clouds and meshes. Furthermore, we extend our technique to implicitly learn the underlying multimodal style distribution of the chosen domains. By sampling style codes from the learned distributions, we increase the variety of styles that our model can confer to a given reference object. Experimental results validate the effectiveness of the proposed 3D style transfer method on a number of benchmarks. The implementation of our framework will be released upon acceptance.


翻译:将一个图像的样式从一个图像转移到另一个图像是计算机视觉中一项广受广泛研究的任务。然而,基于学习的3D环境中的样式转让仍是一个基本上尚未探讨的问题。对于我们的知识,我们建议了在3D对象之间进行样式转让的第一种基于学习的方法,以提供分解的内容和样式表达方式。我们的方法可以将源的内容和风格与目标3D模型结合起来,以产生一种与目标风格相似的新形状,同时保留源内容。拟议的框架可以以点云和梅什两种形式合成新的3D形状。此外,我们推广了我们的技术,以隐含地学习所选域的多式分布方式。通过从所学的分布方式抽样代码,我们增加了我们模型可以赋予给某个参考对象的样式的种类。实验结果验证了在一系列基准上拟议的3D样式转移方法的有效性。一旦被接受,将公布我们框架的实施情况。

0
下载
关闭预览

相关内容

3D是英文“Three Dimensions”的简称,中文是指三维、三个维度、三个坐标,即有长、有宽、有高,换句话说,就是立体的,是相对于只有长和宽的平面(2D)而言。
【芝加哥大学】可变形的风格转移,Deformable Style Transfer
专知会员服务
31+阅读 · 2020年3月26日
专知会员服务
61+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
专知会员服务
110+阅读 · 2020年3月12日
【论文】结构GANs,Structured GANs,
专知会员服务
15+阅读 · 2020年1月16日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
24+阅读 · 2019年12月15日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
3+阅读 · 2018年4月10日
VIP会员
相关VIP内容
【芝加哥大学】可变形的风格转移,Deformable Style Transfer
专知会员服务
31+阅读 · 2020年3月26日
专知会员服务
61+阅读 · 2020年3月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
专知会员服务
110+阅读 · 2020年3月12日
【论文】结构GANs,Structured GANs,
专知会员服务
15+阅读 · 2020年1月16日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
24+阅读 · 2019年12月15日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
Top
微信扫码咨询专知VIP会员