PCA-Net is a recently proposed neural operator architecture which combines principal component analysis (PCA) with neural networks to approximate operators between infinite-dimensional function spaces. The present work develops approximation theory for this approach, improving and significantly extending previous work in this direction: First, a novel universal approximation result is derived, under minimal assumptions on the underlying operator and the data-generating distribution. Then, two potential obstacles to efficient operator learning with PCA-Net are identified, and made precise through lower complexity bounds; the first relates to the complexity of the output distribution, measured by a slow decay of the PCA eigenvalues. The other obstacle relates to the inherent complexity of the space of operators between infinite-dimensional input and output spaces, resulting in a rigorous and quantifiable statement of the curse of dimensionality. In addition to these lower bounds, upper complexity bounds are derived. A suitable smoothness criterion is shown to ensure an algebraic decay of the PCA eigenvalues. Furthermore, it is shown that PCA-Net can overcome the general curse of dimensionality for specific operators of interest, arising from the Darcy flow and the Navier-Stokes equations.


翻译:PCA-Net是一个最近提出的神经算子架构,它将主成分分析(PCA)与神经网络结合起来,以近似描述无限维函数空间之间的算子。本文针对此方法开展了逼近理论的研究,扩展和改进了先前的研究。首先,从最小假设下,推导出了新颖的万能逼近结果,这个结果适用于底层算子和数据生成分布。接着,鉴于PCA-Net算子学习的效率存在两个潜在障碍,我们进一步通过下界复杂度界定了这些障碍。第一个障碍涉及指导PCA特征值的慢速下降所体现的输出分布复杂性。另一个障碍涉及无限维输入和输出空间之间的算子空间的内在复杂度,由此产生关于维数诅咒的严谨且量化的论断。此外,本文还推导了上界复杂度界定。研究表明,平滑性准则适合实现PCA特征值的代数下降,并显示PCA-Net可以克服Darcy流和Navier-Stokes方程中涉及的特定算子的维数诅咒。

0
下载
关闭预览

相关内容

在统计中,主成分分析(PCA)是一种通过最大化每个维度的方差来将较高维度空间中的数据投影到较低维度空间中的方法。给定二维,三维或更高维空间中的点集合,可以将“最佳拟合”线定义为最小化从点到线的平均平方距离的线。可以从垂直于第一条直线的方向类似地选择下一条最佳拟合线。重复此过程会产生一个正交的基础,其中数据的不同单个维度是不相关的。 这些基向量称为主成分。
专知会员服务
51+阅读 · 2020年12月14日
专知会员服务
162+阅读 · 2020年1月16日
【UMD开放书】机器学习课程书册,19章227页pdf,带你学习ML
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月17日
Arxiv
13+阅读 · 2019年11月14日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员