We present a novel, fast differentiable simulator for soft-body learning and control applications. Existing differentiable soft-body simulators can be classified into two categories based on their time integration methods: Simulators using explicit time-stepping schemes require tiny time steps to avoid numerical instabilities in gradient computation, and simulators using implicit time integration typically compute gradients by employing the adjoint method and solving the expensive linearized dynamics. Inspired by Projective Dynamics (PD), we present Differentiable Projective Dynamics (DiffPD), an efficient differentiable soft-body simulator based on PD with implicit time integration. The key idea in DiffPD is to speed up backpropagation by exploiting the prefactorized Cholesky decomposition in forward PD simulation. In terms of contact handling, DiffPD supports two types of contacts: a penalty-based model describing contact and friction forces and a complementarity-based model enforcing non-penetration conditions and static friction. We evaluate the performance of DiffPD and observe it is 4-19 times faster compared with the standard Newton's method in various applications including system identification, inverse design problems, trajectory optimization, and closed-loop control. We also apply DiffPD in a reality-to-simulation (real-to-sim) example with contact and collisions and show its capability of reconstructing a digital twin of real-world scenes.


翻译:我们为软体学习和控制应用程序提供了一个新颖、快速和快速不同的模拟器。现有的不同的软体模拟器可以根据其时间整合方法分为两类:使用明确时间步制计划的模拟器需要微小的时间步骤以避免梯度计算中的数字不稳定性,而使用隐含时间整合的模拟器则通常通过使用联合方法和解决昂贵的线性动态来计算梯度。在投影动力(PPD)的启发下,我们提供了可区别的投影动态(DiffPD),一个基于PD的高效的可区别软体模拟器,以隐含的时间整合为基础。DiffPD的关键想法是通过在前PD模拟中利用预设的Choolesky分解定位加速反演速化速度。在接触处理方面,DiffPD支持两种类型的接触:一种基于惩罚的模型,描述接触和摩擦力,以及一种基于互补性的模式,以非渗透性条件和静态摩擦为基础。我们评估DiffPD的性软体模拟器性模拟器和观察它的表现速度是4至19倍的,而比标准的硬体-OD-Ri-real-imal-imactal-imact-traction-traction-traction-laction-laction-laction-de-de-st-de-laction-traction-laction-laction-traction-traction-de,在各种应用中,在各种方法中,在各种方法中,在显示一种我们方和By-de-de-de-defol-defol-de-de-devellogtion-vical-vical-vical-vical-dal-dal-d-dal-dal-d-de-de-de-de-d-dal-dal-d-dal-dal-dal-d-d-dal-d-d-d-d-d-d-d-d-dal-dal-dal-d-d-dal-d-d-d-dal-dal-d-d-d-d-d-d-d-d-d-dal-d-d-d-dal-dal-d-d-d-d-d-d-d-d-

1
下载
关闭预览

相关内容

Integration:Integration, the VLSI Journal。 Explanation:集成,VLSI杂志。 Publisher:Elsevier。 SIT:http://dblp.uni-trier.de/db/journals/integration/
【干货书】机器人元素Elements of Robotics ,311页pdf
专知会员服务
34+阅读 · 2021年4月16日
专知会员服务
25+阅读 · 2021年4月2日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
150+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
3+阅读 · 2021年11月1日
Arxiv
9+阅读 · 2021年4月8日
Learning Blind Video Temporal Consistency
Arxiv
3+阅读 · 2018年8月1日
VIP会员
相关资讯
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员