Recent advances in deep learning-based point cloud registration have improved generalization, yet most methods still require retraining or manual parameter tuning for each new environment. In this paper, we identify three key factors limiting generalization: (a) reliance on environment-specific voxel size and search radius, (b) poor out-of-domain robustness of learning-based keypoint detectors, and (c) raw coordinate usage, which exacerbates scale discrepancies. To address these issues, we present a zero-shot registration pipeline called BUFFER-X by (a) adaptively determining voxel size/search radii, (b) using farthest point sampling to bypass learned detectors, and (c) leveraging patch-wise scale normalization for consistent coordinate bounds. In particular, we present a multi-scale patch-based descriptor generation and a hierarchical inlier search across scales to improve robustness in diverse scenes. We also propose a novel generalizability benchmark using 11 datasets that cover various indoor/outdoor scenarios and sensor modalities, demonstrating that BUFFER-X achieves substantial generalization without prior information or manual parameter tuning for the test datasets. Our code is available at https://github.com/MIT-SPARK/BUFFER-X.


翻译:基于深度学习的点云配准方法近期在泛化能力方面取得了进展,然而大多数方法在面对新环境时仍需要重新训练或手动调整参数。本文指出限制泛化能力的三个关键因素:(a) 对环境特定的体素尺寸和搜索半径的依赖,(b) 基于学习的关键点检测器在域外数据上的鲁棒性不足,以及(c) 原始坐标的使用加剧了尺度差异。为解决这些问题,我们提出了一种名为BUFFER-X的零样本配准流程,通过(a) 自适应确定体素尺寸/搜索半径,(b) 使用最远点采样规避学习型检测器,以及(c) 利用基于局部块的尺度归一化实现坐标范围一致性。特别地,我们提出了一种多尺度局部块描述子生成方法,以及跨尺度的分层内点搜索策略,以提升在多样化场景中的鲁棒性。我们还构建了一个包含11个数据集的新泛化性基准测试,涵盖多种室内/室外场景与传感器模态,实验表明BUFFER-X在无需测试数据集先验信息或手动参数调优的情况下,实现了显著的泛化性能。代码开源地址:https://github.com/MIT-SPARK/BUFFER-X。

0
下载
关闭预览

相关内容

【AAAI2022】SVT-Net的超轻量化网络
专知会员服务
21+阅读 · 2021年12月5日
NLG任务评价指标BLEU与ROUGE
AINLP
21+阅读 · 2020年5月25日
CVPR 2019:精确目标检测的不确定边界框回归
AI科技评论
13+阅读 · 2019年9月16日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员