A neural implicit outputs a number indicating whether the given query point in space is inside, outside, or on a surface. Many prior works have focused on _latent-encoded_ neural implicits, where a latent vector encoding of a specific shape is also fed as input. While affording latent-space interpolation, this comes at the cost of reconstruction accuracy for any _single_ shape. Training a specific network for each 3D shape, a _weight-encoded_ neural implicit may forgo the latent vector and focus reconstruction accuracy on the details of a single shape. While previously considered as an intermediary representation for 3D scanning tasks or as a toy-problem leading up to latent-encoding tasks, weight-encoded neural implicits have not yet been taken seriously as a 3D shape representation. In this paper, we establish that weight-encoded neural implicits meet the criteria of a first-class 3D shape representation. We introduce a suite of technical contributions to improve reconstruction accuracy, convergence, and robustness when learning the signed distance field induced by a polygonal mesh -- the _de facto_ standard representation. Viewed as a lossy compression, our conversion outperforms standard techniques from geometry processing. Compared to previous latent- and weight-encoded neural implicits we demonstrate superior robustness, scalability, and performance.
翻译:神经隐含输出数 表明空间中给定的查询点是内部、外部还是表面。 许多先前的工程都侧重于 3D 扫描任务或导致潜在编码任务的玩具问题中间代表器, 其中也输入了特定形状的潜在矢量编码。 虽然提供潜伏空间内插值, 但这是以重建任何_ single_ 形状的精确度为代价的。 为每个 3D 形状训练一个特定的网络, 一个重量- 编码_ 神经隐含度可能放弃潜在矢量的精确度, 并将重建的精确度集中在单一形状的细节上。 虽然先前的工程曾被视为3D 扫描任务或神经内隐含物的中间代表器, 但重度- 编码内隐含的内含值尚未被严肃地视为 3D 形状代表器。 在本文中, 我们确定加权编码的内隐含内含的内含内含内含内含内含内涵的内涵值符合一级 3D 形状代表度的标准。 我们引入一套技术贡献, 以提高重建准确性、 和坚固性, 当学习通过 多边阵积度 度 度 度 度 度 度 度 递增 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 - 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度 度