While commodity GPUs provide a continuously growing range of features and sophisticated methods for accelerating compute jobs, many state-of-the-art solutions for point cloud rendering still rely on the provided point primitives (GL_POINTS, POINTLIST, ...) of graphics APIs for image synthesis. In this paper, we present several compute-based point cloud rendering approaches that outperform the hardware pipeline by up to an order of magnitude and achieve significantly better frame times than previous compute-based methods. Beyond basic closest-point rendering, we also introduce a fast, high-quality variant to reduce aliasing. We present and evaluate several variants of our proposed methods with different flavors of optimization, in order to ensure their applicability and achieve optimal performance on a range of platforms and architectures with varying support for novel GPU hardware features. During our experiments, the observed peak performance was reached rendering 796 million points (12.7GB) at rates of 62 to 64 frames per second (50 billion points per second, 802GB/s) on an RTX 3090 without the use of level-of-detail structures. We further introduce an optimized vertex order for point clouds to boost the efficiency of GL_POINTS by a factor of 5x in cases where hardware rendering is compulsory. We compare different orderings and show that Morton sorted buffers are faster for some viewpoints, while shuffled vertex buffers are faster in others. In contrast, combining both approaches by first sorting according to Morton-code and shuffling the resulting sequence in batches of 128 points leads to a vertex buffer layout with high rendering performance and low sensitivity to viewpoint changes.


翻译:虽然商品 GPU 提供了不断增长的功能范围以及加快计算工作的复杂方法, 但是对于点云,许多最先进的解决方案仍然依赖于图形 API 图像合成的图形 API 提供的点原始值( GL_ POINTS, POINTLIST,...) 。 在本文中, 我们展示了几种基于计算基点的云, 使硬件管道达到一个数量级, 并达到大大优于先前基于计算方法的框架时间。 除了基本最接近点外, 我们还引入了一个快速、 高质量的变异, 以减少别名。 我们展示并评价了我们所提议的方法的几种变异性, 其优化的口味是不同的点( GLINTIS ) 。 在我们的实验中, 观察到的峰值达到7.96亿个点, 以每秒62- 64 框架( 每秒50亿个点, 802GB/s) 的比率。 在不使用水平的缓冲结构的情况下, 我们展示并评价了我们的拟议方法的几种变异异性 。 我们进一步引入了一个新的平台 水平 水平 水平 水平 水平 水平 水平 水平 水平 水平 向硬值 显示 水平 水平 水平 水平 水平 水平 水平 水平 将 向 向 水平 向 向 水平 水平 水平 向 水平 向 向 向 向 水平 向 向 向 向 水平 向 向 向 向 向 向 水平 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向 向

1
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2019年11月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年6月8日
Arxiv
0+阅读 · 2021年6月6日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关VIP内容
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
已删除
将门创投
4+阅读 · 2019年11月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员