Kernel principal component analysis (kPCA) is a widely studied method to construct a low-dimensional data representation after a nonlinear transformation. The prevailing method to reconstruct the original input signal from kPCA -- an important task for denoising -- requires us to solve a supervised learning problem. In this paper, we present an alternative method where the reconstruction follows naturally from the compression step. We first approximate the kernel with random Fourier features. Then, we exploit the fact that the nonlinear transformation is invertible in a certain subdomain. Hence, the name \emph{invertible kernel PCA (ikPCA)}. We experiment with different data modalities and show that ikPCA performs similarly to kPCA with supervised reconstruction on denoising tasks, making it a strong alternative.
翻译:核心主元件分析( kPCA) 是一种在非线性变换后构建低维数据表示器的广泛研究方法。 重塑 KPCA 原始输入信号的常用方法 -- -- 这是消化的一个重要任务 -- -- 要求我们解决一个受监督的学习问题。 在本文中,我们提出了一个重建自然地从压缩步骤开始的替代方法。 我们首先用随机的 Fourier 特征来近似内核。 然后, 我们利用非线性变换在某个子体中是不可忽略的这一事实。 因此, 我们用不同的数据模式进行实验, 并表明 ICPCA 与KPCA 类似, 在受监督的拆解任务重建中, 把它变成一个强有力的替代方案 。</s>