Regular physics-informed neural networks (PINNs) predict the solution of partial differential equations using sparse labeled data but only over a single domain. On the other hand, fully supervised learning models are first trained usually over a few thousand domains with known solutions (i.e., labeled data) and then predict the solution over a few hundred unseen domains. Physics-informed PointNet (PIPN) is primarily designed to fill this gap between PINNs (as weakly supervised learning models) and fully supervised learning models. In this article, we demonstrate that PIPN predicts the solution of desired partial differential equations over a few hundred domains simultaneously, while it only uses sparse labeled data. This framework benefits fast geometric designs in the industry when only sparse labeled data are available. Particularly, we show that PIPN predicts the solution of a plane stress problem over more than 500 domains with different geometries, simultaneously. Moreover, we pioneer implementing the concept of remarkable batch size (i.e., the number of geometries fed into PIPN at each sub-epoch) into PIPN. Specifically, we try batch sizes of 7, 14, 19, 38, 76, and 133. Additionally, the effect of the PIPN size, symmetric function in the PIPN architecture, and static and dynamic weights for the component of the sparse labeled data in the loss function are investigated.


翻译:物理信息神经网络(PINNs)可以使用稀疏标记数据预测偏微分方程的解,但只能在单个域上进行。与此相反,完全监督学习模型首先通常在数千个具有已知解(即标记数据)的域上进行训练,然后在数百个未知域上预测解。物理信息PointNet(PIPN)主要设计用于填补PINNs(弱监督学习模型)和完全监督学习模型之间的这一差距。在本文中,我们证明PIPN在仅使用稀疏标记数据的情况下可以同时预测所需偏微分方程的解超过500个不同几何形状的域。该框架有助于工业快速几何设计,当只有稀疏标记数据可用时。特别地,我们展示了PIPN可以同时预测超过500个具有不同几何形状的平面应力问题的解。此外,我们首创将remarkable batch size(即每个子时期投入PIPN的几何形状数量)的概念引入PIPN。具体地,我们尝试了7、14、19、38、76和133的批处理大小。此外,还研究了PIPN的大小、PIPN架构中的对称函数以及损失函数中稀疏标记数据组件的静态和动态权重的影响。

0
下载
关闭预览

相关内容

10篇论文阐述《等变图神经网络在药物研发中应用》
专知会员服务
22+阅读 · 2022年8月3日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关VIP内容
10篇论文阐述《等变图神经网络在药物研发中应用》
专知会员服务
22+阅读 · 2022年8月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员