Most machine learning methods require tuning of hyper-parameters. For kernel ridge regression (KRR) with the Gaussian kernel, the hyper-parameter is the bandwidth. The bandwidth specifies the length-scale of the kernel and has to be carefully selected in order to obtain a model with good generalization. The default method for bandwidth selection is cross-validation which often yields good results, albeit at high computational costs. Furthermore, the estimates provided by cross-validation tend to have very high variance, especially when training data are scarce. Inspired by Jacobian regularization, we formulate an approximate expression for how the derivatives of the functions inferred by KRR with the Gaussian kernel depend on the kernel bandwidth. We then use this expression to propose a closed-form, computationally feather-light, bandwidth selection heuristic based on controlling the Jacobian. In addition, the Jacobian expression illuminates how the bandwidth selection is a trade-off between the smoothness of the inferred function, and the conditioning of the training data kernel matrix. We show on real and synthetic data that compared to cross-validation, our method is considerably more stable in terms of bandwidth selection, and, for small data sets, provides better predictions.
翻译:多数机器学习方法都需要对超参数进行调试。 对于高山内核的内核回归(KRR), 超参数是带宽。 带宽指定内核的长度尺度, 并且必须仔细选择, 以便获得一个具有良好概括的模型。 带宽选择的默认方法是交叉校验, 尽管计算成本很高, 但通常会产生良好的结果。 此外, 交叉校验提供的估计数往往差异很大, 特别是在培训数据稀少的情况下。 在雅各肯亚正规化的启发下, 我们为KRR与高山内核的函数衍生出如何依赖内核的带宽。 我们随后使用这个表达方式提出封闭式、 计算式的羽毛光、 带宽选择基于控制雅各克。 此外, Jacobian 表达说明了带宽选择是如何在推断的功能的平滑度与训练内核矩阵的调节之间发生权衡的。 我们用真实和合成数据显示的是, 相对于更稳定的系统选择而言,, 与 更稳定的带宽度,, 与我们 的 比较 的 更稳定 的 的 的 的 数据,, 比较 的 的,, 比较 的 的 的,,, 比较 比较 的, 更 的 的 更 的 的 的 的, 更 更 更 的 的 更 的 的 的 更 的 的 的 的 的 的 更 更 的 的 的 更 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 更 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的