Parallelization of A* path planning is mostly limited by the number of possible motions, which is far less than the level of parallelism that modern processors support. In this paper, we go beyond the limitations of traditional parallelism of A* and propose Speculative Path Planning to accelerate the search when there are abundant idle resources. The key idea of our approach is predicting future state expansions relying on patterns among expansions and aggressively parallelize the computations of prospective states (i.e. pre-evaluate the expensive collision checking operation of prospective nodes). This method allows us to maintain the same search order as of vanilla A* and safeguard any optimality guarantees. We evaluate our method on various configurations and show that on a machine with 32 physical cores, our method improves the performance around 11x and 10x on average over counterpart single-threaded and multi-threaded implementations respectively. The code to our paper can be found here: https://github.com/bakhshalipour/speculative-path-planning.


翻译:A* 路径规划的平行化主要受可能的动议数量的限制,这远远低于现代处理者所支持的平行化水平。在本文中,我们超越了A* 传统平行主义的局限性,提出在资源闲置时加快搜索的投机性路径规划。我们方法的关键理念是预测未来国家扩张依赖扩张模式和对潜在国家的计算进行积极平行化(即预先评估未来节点昂贵的碰撞检查操作)。这种方法使我们得以维持与香草A* 相同的搜索顺序,并保障任何最佳性能保障。我们评估了各种配置的方法,并表明在拥有32个物理核心的机器上,我们的方法提高了平均11x和10x的性能,分别高于单面和多面执行。我们文件的代码可以在这里找到 https://github.com/bakhshalipour/spectulative-path-planing。

0
下载
关闭预览

相关内容

【Manning新书】现代Java实战,592页pdf
专知会员服务
101+阅读 · 2020年5月22日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
279+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
已删除
将门创投
8+阅读 · 2019年1月30日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Arxiv
0+阅读 · 2021年4月6日
Arxiv
0+阅读 · 2021年4月3日
Arxiv
4+阅读 · 2018年2月13日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
已删除
将门创投
8+阅读 · 2019年1月30日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Top
微信扫码咨询专知VIP会员