We introduce kernel thinning, a new procedure for compressing a distribution $\mathbb{P}$ more effectively than i.i.d.\ sampling or standard thinning. Given a suitable reproducing kernel $\mathbf{k}$ and $\mathcal{O}(n^2)$ time, kernel thinning compresses an $n$-point approximation to $\mathbb{P}$ into a $\sqrt{n}$-point approximation with comparable worst-case integration error across the associated reproducing kernel Hilbert space. With high probability, the maximum discrepancy in integration error is $\mathcal{O}_d(n^{-1/2}\sqrt{\log n})$ for compactly supported $\mathbb{P}$ and $\mathcal{O}_d(n^{-\frac{1}{2}} (\log n)^{(d+1)/2}\sqrt{\log\log n})$ for sub-exponential $\mathbb{P}$ on $\mathbb{R}^d$. In contrast, an equal-sized i.i.d.\ sample from $\mathbb{P}$ suffers $\Omega(n^{-1/4})$ integration error. Our sub-exponential guarantees resemble the classical quasi-Monte Carlo error rates for uniform $\mathbb{P}$ on $[0,1]^d$ but apply to general distributions on $\mathbb{R}^d$ and a wide range of common kernels. We use our results to derive explicit non-asymptotic maximum mean discrepancy bounds for Gaussian, Mat\'ern, and B-spline kernels and present two vignettes illustrating the practical benefits of kernel thinning over i.i.d.\ sampling and standard Markov chain Monte Carlo thinning, in dimensions $d=2$ through $100$.


翻译:我们引入了内核薄度, 一种比 i. d.\ 采样或标准平坦薄度更有效地压缩分配 $\ mathb{ P} 美元的新程序。 如果适合复制内核 $\ mathbf{k} 美元和$\ mathcal{ O} (n\ 2) 美元, 内核稀薄度将一个美元点近似于$\ mathb{ P} 美元近似于美元=clor_ sqrent 美元近似, 且相关再生成的内核空间中最坏的整合错误。 极有可能, 整合错误的最大差异是 $\ mathcal $\\\ mathb} 美元, B} $\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ 美元 美元 美元 美元, 内核正正元 内核 内, 内, 内核- 内核- 内核- 美元- 内核- 内核- 美元=================美元 内, 内, 内, 内, 内, 内, 内核- 内, 内核- 内核- 内, 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内, 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内核- 内 内, 内核- 内核- 内核- 内, 内, 内, 内, 内, 内, 内, 内, 内, 内, 内,内核- 内核- 内核- 内, 内, 内, 内, 内, 内, 内,内,内,内, 内, 内,内,内,内,内, 内,内,内,内,内,内,内,内,内,内

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年7月15日
ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
开源星际争霸2多智能体挑战smac
专知
17+阅读 · 2019年2月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Machine Learning:十大机器学习算法
开源中国
21+阅读 · 2018年3月1日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Arxiv
0+阅读 · 2022年1月17日
On the Estimation Bias in Double Q-Learning
Arxiv
0+阅读 · 2022年1月14日
Arxiv
3+阅读 · 2020年9月30日
A Modern Introduction to Online Learning
Arxiv
20+阅读 · 2019年12月31日
Arxiv
6+阅读 · 2019年12月30日
Arxiv
17+阅读 · 2019年3月28日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2021年7月15日
ICML 2021论文收录
专知会员服务
122+阅读 · 2021年5月8日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
开源星际争霸2多智能体挑战smac
专知
17+阅读 · 2019年2月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Machine Learning:十大机器学习算法
开源中国
21+阅读 · 2018年3月1日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员