This paper introduces algorithms to select/design kernels in Gaussian process regression/kriging surrogate modeling techniques. We adopt the setting of kernel method solutions in ad hoc functional spaces, namely Reproducing Kernel Hilbert Spaces (RKHS), to solve the problem of approximating a regular target function given observations of it, i.e. supervised learning. A first class of algorithms is kernel flow, which was introduced in the context of classification in machine learning. It can be seen as a cross-validation procedure whereby a "best" kernel is selected such that the loss of accuracy incurred by removing some part of the dataset (typically half of it) is minimized. A second class of algorithms is called spectral kernel ridge regression, and aims at selecting a "best" kernel such that the norm of the function to be approximated is minimal in the associated RKHS. Within Mercer's theorem framework, we obtain an explicit construction of that "best" kernel in terms of the main features of the target function. Both approaches of learning kernels from data are illustrated by numerical examples on synthetic test functions, and on a classical test case in turbulence modeling validation for transonic flows about a two-dimensional airfoil.
翻译:本文引入了高山进程回归/操纵替代模型模型中选择/设计内核的算法。 我们采用在特定功能空间,即复制 Kernel Hilbert 空间(RKHS)中设定内核方法解决方案,以解决根据观察结果,即受监督的学习而接近常规目标函数的问题。 第一类算法是内核流,这是在机器学习分类中引入的。 它可以被视为一种交叉校验程序,通过这种程序,选择了“ 最佳” 内核,这样可以最大限度地减少因删除数据集的某些部分(通常为其中一半)而导致的准确性损失。 第二类算法被称为光谱内核脊回归,目的是选择“ 最佳” 内核, 以便在相关的 RKHS 学习中, 最接近的功能是最小的内核流。 在 Mercer 的理论框架内, 我们从“ 最佳” 内核内核内核, 明确构建了“ 内核” 内核内核, 在目标功能的主要特征方面, 尽可能减少因删除数据集( 通常为一半) 而导致的准确性 。 在模型测试模型中, 中, 两种方法都是从模型 模拟 测试 模型 中, 中, 模拟 的 的 模拟 的 的 模拟 模拟 的 模拟 模拟 模拟 测试 的 模型 的 的 的 的 模型 的 的 模型 的 的 模型 的 的 的 的 模型 的 的 模型 的 模型 的 的 的 模型 模型 的 的 的 的 的 的 。