我们周围的物质世界极其复杂,几个世纪以来,我们一直试图对其运作方式有更深入的了解。因此,建立能够预测多物理系统(如复杂血流、混沌振荡器和量子力学系统)长期动力学的模型仍然是科学领域的一个关键挑战。虽然传统和计算工具在解决这一开放问题方面有了显著的改进,但它们仍面临许多挑战,计算资源仍然密集,而且容易产生严重的错误积累。现在,现代机器学习技术,加上大量的传感器数据,正在推动这个方向取得重大进展,帮助我们从潜在的物理过程中发现复杂的关系。该领域的一个新兴领域是混合物理信息机器学习,将物理系统的部分先验知识集成到机器学习管道中,以提高预测性能和数据效率。在这篇论文中,我们研究了如何使用现有的关于物理世界的知识来改进和增强神经网络的预测性能。首先,我们展示了旨在保持结构、连通性和能量(如图、积分器和哈密顿量)的学习偏差可以有效地结合起来,从稀疏、噪声数据中学习复杂多体节能系统的动力学。其次,通过在神经网络中嵌入广义的port- hamilton形式,从数据中准确地恢复不可逆物理系统的动力学。此外,我们强调了我们的模型如何通过设计从稀疏数据中发现潜在的力和阻尼项,以及重建混沌系统的Poincaré部分。最后,我们展示了基于物理的神经网络可以有效地用于高效和准确的迁移学习——在大量研究良好的微分方程上保持高保真的同时,实现数量级的加速。总的来说,这些创新展示了科学机器学习的一个新方向——将现有知识与机器学习方法相结合。由此自然产生了许多好处,包括(1)准确的学习和长期预测(2)数据效率(3)可靠性和(4)可伸缩性。这种混合模型对于开发能够建模和预测复杂的多保真度、多尺度物理过程的鲁棒机器学习方法至关重要。

成为VIP会员查看完整内容
77

相关内容

牛津大学是一所英国研究型大学,也是罗素大学集团、英国“G5超级精英大学”,欧洲顶尖大学科英布拉集团、欧洲研究型大学联盟的核心成员。牛津大学培养了众多社会名人,包括了27位英国首相、60位诺贝尔奖得主以及数十位世界各国的皇室成员和政治领袖。2016年9月,泰晤士高等教育发布了2016-2017年度世界大学排名,其中牛津大学排名第一。

【牛津大学博士论文】深度迁移学习贝叶斯推断,157页pdf
【博士论文】多任务学习视觉场景理解,140页pdf
专知会员服务
88+阅读 · 2022年4月5日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
121+阅读 · 2022年1月16日
专知会员服务
103+阅读 · 2021年7月17日
专知会员服务
62+阅读 · 2021年4月11日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
9+阅读 · 2022年1月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月10日
Arxiv
22+阅读 · 2022年2月4日
Arxiv
54+阅读 · 2021年5月3日
Arxiv
16+阅读 · 2021年3月2日
An Attentive Survey of Attention Models
Arxiv
43+阅读 · 2020年12月15日
Arxiv
22+阅读 · 2019年11月24日
Arxiv
18+阅读 · 2019年1月16日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年11月10日
Arxiv
22+阅读 · 2022年2月4日
Arxiv
54+阅读 · 2021年5月3日
Arxiv
16+阅读 · 2021年3月2日
An Attentive Survey of Attention Models
Arxiv
43+阅读 · 2020年12月15日
Arxiv
22+阅读 · 2019年11月24日
Arxiv
18+阅读 · 2019年1月16日
微信扫码咨询专知VIP会员