We introduce kernel thinning, a new procedure for compressing a distribution $\mathbb{P}$ more effectively than i.i.d.\ sampling or standard thinning. Given a suitable reproducing kernel $\mathbf{k}$ and $\mathcal{O}(n^2)$ time, kernel thinning compresses an $n$-point approximation to $\mathbb{P}$ into a $\sqrt{n}$-point approximation with comparable worst-case integration error across the associated reproducing kernel Hilbert space. With high probability, the maximum discrepancy in integration error is $\mathcal{O}_d(n^{-1/2}\sqrt{\log n})$ for compactly supported $\mathbb{P}$ and $\mathcal{O}_d(n^{-\frac{1}{2}} (\log n)^{(d+1)/2}\sqrt{\log\log n})$ for sub-exponential $\mathbb{P}$ on $\mathbb{R}^d$. In contrast, an equal-sized i.i.d.\ sample from $\mathbb{P}$ suffers $\Omega(n^{-1/4})$ integration error. Our sub-exponential guarantees resemble the classical quasi-Monte Carlo error rates for uniform $\mathbb{P}$ on $[0,1]^d$ but apply to general distributions on $\mathbb{R}^d$ and a wide range of common kernels. We use our results to derive explicit non-asymptotic maximum mean discrepancy bounds for Gaussian, Mat\'ern, and B-spline kernels and present two vignettes illustrating the practical benefits of kernel thinning over i.i.d.\ sampling and standard Markov chain Monte Carlo thinning, in dimensions $d=2$ through $100$.
翻译:我们引入了内核薄度, 一种比 i. d.\ 采样或标准平坦薄度更有效地压缩分配 $\ mathb{ P} 美元的新程序。 如果适合复制内核 $\ mathbf{k} 美元和$\ mathcal{ O} (n\ 2) 美元, 内核稀薄度将一个美元点近似于$\ mathb{ P} 美元近似于美元=clor_ sqrent 美元近似, 且相关再生成的内核空间中最坏的整合错误。 极有可能, 整合错误的最大差异是 $\ mathcal $\\\ mathb} 美元, B} $\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ 美元 美元 美元 美元, 内核正正元 内核 内, 内, 内核- 内核- 内核- 美元- 内核- 内核- 美元=================美元 内, 内, 内, 内, 内, 内, 内核- 内, 内核- 内核- 内, 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内, 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内 内, 内核- 内核- 内核- 内, 内, 内, 内, 内, 内, 内, 内, 内, 内, 内,内核- 内核- 内核- 内, 内, 内, 内, 内, 内, 内,内,内,内, 内, 内,内,内,内,内, 内,内,内,内,内,内,内,内,内,内