We present a robust learning algorithm to detect and handle collisions in 3D deforming meshes. Our collision detector is represented as a bilevel deep autoencoder with an attention mechanism that identifies colliding mesh sub-parts. We use a numerical optimization algorithm to resolve penetrations guided by the network. Our learned collision handler can resolve collisions for unseen, high-dimensional meshes with thousands of vertices. To obtain stable network performance in such large and unseen spaces, we progressively insert new collision data based on the errors in network inferences. We automatically label these data using an analytical collision detector and progressively fine-tune our detection networks. We evaluate our method for collision handling of complex, 3D meshes coming from several datasets with different shapes and topologies, including datasets corresponding to dressed and undressed human poses, cloth simulations, and human hand poses acquired using multiview capture systems. Our approach outperforms supervised learning methods and achieves $93.8-98.1\%$ accuracy compared to the groundtruth by analytic methods. Compared to prior learning methods, our approach results in a $5.16\%-25.50\%$ lower false negative rate in terms of collision checking and a $9.65\%-58.91\%$ higher success rate in collision handling.


翻译:我们展示了一种强健的学习算法,用以探测和处理3D变形模贝中的碰撞。我们的碰撞探测器代表着一个双层深自动编码器,其关注机制可以识别相撞网形相向子部分。我们使用一个数字优化算法来解决网络引导的渗透问题。我们学习过的碰撞处理器可以解决由数千个脊椎组成的看不见的高维模贝片相碰撞的碰撞问题。为了在如此大和看不见的空间取得稳定的网络性能,我们根据网络推断错误,逐步插入新的碰撞数据。我们用一个分析碰撞探测器自动标出这些数据,并逐步微调我们的探测网络。我们评估了我们复杂的碰撞处理方法,3D模件来自不同形状和结构的几套数据集,其中包括与穿戴和脱衣的人的外形有关的数据集,布模拟,以及使用多视捕捉系统获得的人类手表。我们的方法超越了监督学习方法,并实现了93.8-98.1美元-美元-美元-美元-美元-美元-比地铁路路的准确度更高。我们评估了复杂碰撞处理方法,对比了9-50美元-美元-25美元-美元-美元-美元-美元-美元-美元-美元-美元-美元-美元-比比前的碰撞处理率率,比比前学习成功率为5美元-美元-25美元-美元-美元-美元-美元/美元/美元/美元/美元-美元-美元/美元/美元-美元-美元-美元-美元-美元/美元-美元-美元-美元-美元-美元-美元/美元/美元/美元-美元-美元/美元-美元-美元-美元/美元-美元-美元-美元-美元-美元/美元-美元/美元-美元-美元-美元/美元/美元-美元-美元-美元-美元-美元-比率的碰撞处理方法,比比。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
VIP会员
相关VIP内容
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
carla 体验效果 及代码
CreateAMind
7+阅读 · 2018年2月3日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员