【牛津大学博士论文】深度学习数据驱动发现偏微分方程,160页pdf

2022 年 11 月 1 日 专知

从数据中发现隐藏的偏微分方程(PDEs)和算子是机器学习和数值分析之间的一个重要前沿课题。介绍了线性偏微分方程格林函数学习的理论结果和深度学习算法,并对偏微分方程格林函数学习技术进行了严格论证。导出了一个理论上严格的算法来获得学习率,它表征了近似学习与椭圆偏微分方程相关的格林函数所需的训练数据量。该结构通过将随机奇异值分解扩展到非标准高斯向量和Hilbert-Schmidt算子,利用层次矩阵利用格林函数的低秩层次结构,连接了PDE学习和数值线性代数领域。
引入有理神经网络,由具有可训练有理激活函数的神经网络组成。这些网络的高组成结构,结合有理逼近理论,意味着有理函数比标准激活函数具有更高的逼近幂。此外,有理神经网络可能具有极点并具有任意大的值,这非常适合逼近具有奇点的函数,如格林函数。最后,结合格林函数和有理神经网络的理论成果,设计了一种从数据中发现格林函数的人类可理解的深度学习方法。这种方法补充了最先进的PDE学习技术,因为可以从学习到的格林函数中获得广泛的物理知识,如主导模、对称和奇点位置。
本文旨在通过将标准数学领域(如数值线性代数、概率和偏微分方程分析)与现代深度学习技术相结合,了解是否可以从数据中发现偏微分方程(PDEs) 。我们着重学习与线性偏微分方程相关的格林函数从一对强迫函数和解。推导了挖掘问题规律性的理论边界,提出了一种实用的深度学习算法。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“E160” 就可以获取 【牛津大学博士论文】深度学习数据驱动发现偏微分方程,160页pdf》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
2

相关内容

【牛津大学博士论文】多模态自监督学习,172页pdf
专知会员服务
134+阅读 · 2022年10月4日
【牛津大学博士论文】深度学习临床前药物发现
专知会员服务
50+阅读 · 2022年9月30日
【干货书】深度学习数学:理解神经网络,347页pdf
专知会员服务
262+阅读 · 2022年7月3日
牛津大学最新《计算代数拓扑》笔记书,107页pdf
专知会员服务
42+阅读 · 2022年2月17日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
125+阅读 · 2022年1月16日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
9+阅读 · 2022年1月16日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年12月21日
Pretraining Without Attention
Arxiv
0+阅读 · 2022年12月20日
Arxiv
57+阅读 · 2021年5月3日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
19+阅读 · 2018年3月28日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年12月21日
Pretraining Without Attention
Arxiv
0+阅读 · 2022年12月20日
Arxiv
57+阅读 · 2021年5月3日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
19+阅读 · 2018年3月28日
Arxiv
16+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员