Despite recent advances in geometric modeling, 3D mesh modeling still involves a considerable amount of manual labor by experts. In this paper, we introduce Mesh Draping: a neural method for transferring existing mesh structure from one shape to another. The method drapes the source mesh over the target geometry and at the same time seeks to preserve the carefully designed characteristics of the source mesh. At its core, our method deforms the source mesh using progressive positional encoding. We show that by leveraging gradually increasing frequencies to guide the neural optimization, we are able to achieve stable and high quality mesh transfer. Our approach is simple and requires little user guidance, compared to contemporary surface mapping techniques which rely on parametrization or careful manual tuning. Most importantly, Mesh Draping is a parameterization-free method, and thus applicable to a variety of target shape representations, including point clouds, polygon soups, and non-manifold meshes. We demonstrate that the transferred meshing remains faithful to the source mesh design characteristics, and at the same time fits the target geometry well.


翻译:尽管在几何模型方面最近有所进展, 3D网目模型仍然涉及大量专家的体力劳动。 在本文中, 我们引入了“ 网目捕捉” : 将现有网目结构从一个形状转移到另一个形状的神经系统方法。 方法将源的网格遮盖在目标几何上, 同时试图保存源网格精心设计的特性。 在其核心方面, 我们的方法利用渐进的定位编码, 使源网目网形变形。 我们通过利用逐渐增加的频率来引导神经系统优化, 能够实现稳定和高质量的网目传输。 我们的方法很简单, 需要很少用户指导, 与当代地表绘图技术相比, 而这些技术依赖于对称或仔细的手动调整。 最重要的是, 网目捕方法是一种无参数化方法, 因而适用于各种目标形状显示, 包括点云、 多边形汤和非皮层缩模。 我们证明, 被转移的网目仍然忠实于源网目设计特性, 同时也符合目标的几何测量功能 。

0
下载
关闭预览

相关内容

SOUPS:Symposium On Usable Privacy and Security。 Explanation:可用隐私和安全专题讨论会。 Publisher:USENIX。 SIT: http://dblp.uni-trier.de/db/conf/soups/
专知会员服务
20+阅读 · 2021年8月17日
专知会员服务
50+阅读 · 2021年6月30日
专知会员服务
44+阅读 · 2020年10月31日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
5+阅读 · 2018年1月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
Arxiv
1+阅读 · 2021年12月3日
Arxiv
0+阅读 · 2021年12月3日
Arxiv
0+阅读 · 2021年12月2日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
5+阅读 · 2018年5月31日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
已删除
将门创投
5+阅读 · 2018年1月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
相关论文
Arxiv
1+阅读 · 2021年12月3日
Arxiv
0+阅读 · 2021年12月3日
Arxiv
0+阅读 · 2021年12月2日
Deformable Style Transfer
Arxiv
14+阅读 · 2020年3月24日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
5+阅读 · 2018年5月31日
Top
微信扫码咨询专知VIP会员