Ab initio structure prediction methods have been nowadays widely used as powerful tools for structure searches and material discovery. However, they are generally restricted to small systems owing to the heavy computational cost of underlying density functional theory (DFT) calculations. In this work, by combining state-of-art machine learning (ML) potential with our in-house developed CALYPSO structure prediction method, we developed two acceleration schemes for structure prediction toward large systems, in which ML potential is pre-constructed to fully replace DFT calculations or trained in an on-the-fly manner from scratch during the structure searches. The developed schemes have been applied to medium- and large-sized boron clusters, which are challenging cases for both construction of ML potentials and extensive structure searches. Experimental structures of B36 and B40 clusters can be readily reproduced, and the putative global minimum structure for B84 cluster is proposed, where substantially less computational cost by several orders of magnitude is evident if compared with full DFT-based structure searches. Our results demonstrate a viable route for structure prediction toward large systems via the combination of state-of-art structure prediction methods and ML techniques.


翻译:由于基本密度功能理论(DFT)的计算成本很高,因此这些预测方法一般限于小型系统,在这项工作中,通过将最先进的机器学习潜力与我们内部开发的CALYPSO结构预测方法相结合,我们制定了两个大型系统结构预测加速计划,其中ML潜力是预先构建的,以完全取代DFT的计算,或者在结构搜索期间从零开始以飞行方式接受培训。已开发的计划适用于中大型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨型巨

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
9+阅读 · 2019年4月19日
Arxiv
8+阅读 · 2018年7月12日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年2月22日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
相关论文
Arxiv
9+阅读 · 2019年4月19日
Arxiv
8+阅读 · 2018年7月12日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年2月22日
Top
微信扫码咨询专知VIP会员