Interpreting objects with basic geometric primitives has long been studied in computer vision. Among geometric primitives, superquadrics are well known for their simple implicit expressions and capability of representing a wide range of shapes with few parameters. However, as the first and foremost step, recovering superquadrics accurately and robustly from 3D data still remains challenging. The existing methods are subject to local optima and are sensitive to noise and outliers in real-world scenarios, resulting in frequent failure in capturing geometric shapes. In this paper, we propose the first probabilistic method to recover superquadrics from point clouds. Our method builds a Gaussian-uniform mixture model (GUM) on the parametric surface of a superquadric, which explicitly models the generation of outliers and noise. The superquadric recovery is formulated as a Maximum Likelihood Estimation (MLE) problem. We propose an algorithm, Expectation, Maximization, and Switching (EMS), to solve this problem, where: (1) outliers are predicted from the posterior perspective; (2) the superquadric parameter is optimized by the trust-region reflective algorithm; and (3) local optima are avoided by globally searching and switching among parameters encoding similar superquadrics. We show that our method can be extended to the multi-superquadrics recovery for complex objects. The proposed method outperforms the state-of-the-art in terms of accuracy, efficiency, and robustness on both synthetic and real-world datasets. Codes will be released.


翻译:在计算机视野中,长期研究基本几何原始物体的判读。在几何原始中,超级二次以简单隐含的表达方式和代表范围很广且参数少的形状的能力而著称。然而,作为第一步,从3D数据中准确和有力地恢复超赤道仍然具有挑战性。现有方法受本地选择的制约,对现实世界情景中的噪音和异端敏感,导致在获取几何形状方面经常失败。在本文中,我们提出了第一个从点云中回收超二次物体的概率性方法。我们的方法在超二次的参数表面建立了一个高斯-单方形混合模型(GUMM),该模型明确模拟了外方和噪音的生成。超二次的恢复方法被设计成一个最大可能性 Estimation (MLE) 问题。我们提出了一种算法、 期望、 最大化和 转换(EMS) 来解决这一问题,其中:(1) 从后方云的角度预测出超二次的超二次对象;(2) 超二次级的精确度参数是全球范围(Squlfrical) 的精确度,通过搜索方法显示我们的真实度和最优化的翻版的翻版的模型, 度(Wial-qual-qual-reval-ral-sldal-real-s) ex-realdaldal-s

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
122+阅读 · 2020年11月20日
专知会员服务
109+阅读 · 2020年3月12日
【新书】Python编程基础,669页pdf
专知会员服务
186+阅读 · 2019年10月10日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
“CVPR 2020 接受论文列表 1470篇论文都在这了
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
胶囊网络资源汇总
论智
7+阅读 · 2018年3月10日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月31日
Arxiv
0+阅读 · 2022年1月29日
Arxiv
0+阅读 · 2022年1月29日
Arxiv
7+阅读 · 2019年6月20日
VIP会员
相关VIP内容
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
胶囊网络资源汇总
论智
7+阅读 · 2018年3月10日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员