In this paper, we propose \emph{Neural Points}, a novel point cloud representation. Unlike traditional point cloud representation where each point only represents a position or a local plane in the 3D space, each point in Neural Points represents a local continuous geometric shape via neural fields. Therefore, Neural Points can express much more complex details and thus have a stronger representation ability. Neural Points is trained with high-resolution surface containing rich geometric details, such that the trained model has enough expression ability for various shapes. Specifically, we extract deep local features on the points and construct neural fields through the local isomorphism between the 2D parametric domain and the 3D local patch. In the final, local neural fields are integrated together to form the global surface. Experimental results show that Neural Points has powerful representation ability and demonstrate excellent robustness and generalization ability. With Neural Points, we can resample point cloud with arbitrary resolutions, and it outperforms state-of-the-art point cloud upsampling methods by a large margin.


翻译:在本文中, 我们提出 \ emph{ Neural Point}, 一个新的点云代表。 不同于传统的点云代表 3D 空间中每个点只代表位置或本地平面, 神经点的每个点代表着通过神经场的局部连续几何形状。 因此, 神经点可以表达更复杂的细节, 因而具有更强的代表能力。 神经点受过高分辨率表面的训练, 包含丰富的几何细节, 这样经过训练的模型有足够的表达能力来表达各种形状。 具体地说, 我们通过本地2D 参数域和 3D 本地补丁之间的异形态, 绘制点点的深点本地特征, 并构建神经场。 在最后, 本地神经场可以一起形成全球表面。 实验结果显示, 神经点具有强大的代表能力, 并展示出极强的稳健性和一般化能力。 在神经点中, 我们可以用任意的分辨率重新标定点云, 并且它以大边缘的状态点向上标的方法。

0
下载
关闭预览

相关内容

根据激光测量原理得到的点云,包括三维坐标(XYZ)和激光反射强度(Intensity)。 根据摄影测量原理得到的点云,包括三维坐标(XYZ)和颜色信息(RGB)。 结合激光测量和摄影测量原理得到点云,包括三维坐标(XYZ)、激光反射强度(Intensity)和颜色信息(RGB)。 在获取物体表面每个采样点的空间坐标后,得到的是一个点的集合,称之为“点云”(Point Cloud)
【2021新书】高阶网络,150页pdf,Higher-Order Networks
专知会员服务
85+阅读 · 2021年11月26日
【DeepMind】强化学习教程,83页ppt
专知会员服务
149+阅读 · 2020年8月7日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
专知会员服务
109+阅读 · 2020年3月12日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
一文读懂Faster RCNN
极市平台
5+阅读 · 2020年1月6日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【泡泡点云时空】PU-Net:点云上采样网络(CVPR2018-6)
泡泡机器人SLAM
6+阅读 · 2018年8月16日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
9+阅读 · 2021年10月26日
Arxiv
6+阅读 · 2021年4月13日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Review: deep learning on 3D point clouds
Arxiv
5+阅读 · 2020年1月17日
Deep Learning for 3D Point Clouds: A Survey
Arxiv
3+阅读 · 2019年12月27日
Arxiv
4+阅读 · 2017年1月2日
VIP会员
相关资讯
一文读懂Faster RCNN
极市平台
5+阅读 · 2020年1月6日
【泡泡一分钟】基于运动估计的激光雷达和相机标定方法
泡泡机器人SLAM
25+阅读 · 2019年1月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【泡泡点云时空】PU-Net:点云上采样网络(CVPR2018-6)
泡泡机器人SLAM
6+阅读 · 2018年8月16日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关论文
Arxiv
9+阅读 · 2021年10月26日
Arxiv
6+阅读 · 2021年4月13日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Review: deep learning on 3D point clouds
Arxiv
5+阅读 · 2020年1月17日
Deep Learning for 3D Point Clouds: A Survey
Arxiv
3+阅读 · 2019年12月27日
Arxiv
4+阅读 · 2017年1月2日
Top
微信扫码咨询专知VIP会员