Consider the following problem: given two arbitrary densities $q_1,q_2$ and a sample-access to an unknown target density $p$, find which of the $q_i$'s is closer to $p$ in total variation. A remarkable result due to Yatracos shows that this problem is tractable in the following sense: there exists an algorithm that uses $O(ε^{-2})$ samples from $p$ and outputs~$q_i$ such that with high probability, $TV(q_i,p) \leq 3\cdot\mathsf{opt} + ε$, where $\mathsf{opt}= \min\{TV(q_1,p),TV(q_2,p)\}$. Moreover, this result extends to any finite class of densities $\mathcal{Q}$: there exists an algorithm that outputs the best density in $\mathcal{Q}$ up to a multiplicative approximation factor of 3. We complement and extend this result by showing that: (i) the factor 3 can not be improved if one restricts the algorithm to output a density from $\mathcal{Q}$, and (ii) if one allows the algorithm to output arbitrary densities (e.g.\ a mixture of densities from $\mathcal{Q}$), then the approximation factor can be reduced to 2, which is optimal. In particular this demonstrates an advantage of improper learning over proper in this setup. We develop two approaches to achieve the optimal approximation factor of 2: an adaptive one and a static one. Both approaches are based on a geometric point of view of the problem and rely on estimating surrogate metrics to the total variation. Our sample complexity bounds exploit techniques from {\it Adaptive Data Analysis}.


翻译:考虑以下问题:给定两个任意密度函数 $q_1,q_2$,以及对未知目标密度 $p$ 的样本访问,判断哪一个 $q_i$ 在总变差距离上更接近 $p$。Yatracos 提出的一个显著结果表明该问题是可处理的:存在一种算法,仅需使用 $O(ε^{-2})$ 个来自 $p$ 的样本,即可输出 $q_i$,使得以高概率满足 $TV(q_i,p) \leq 3\cdot\mathsf{opt} + ε$,其中 $\mathsf{opt}= \min\{TV(q_1,p),TV(q_2,p)\}$。此外,该结果可推广至任意有限密度函数类 $\mathcal{Q}$:存在算法可输出 $\mathcal{Q}$ 中最优密度函数的逼近结果,其乘法逼近因子为 3。我们通过以下发现对该结果进行补充和扩展:(i)若限制算法必须从 $\mathcal{Q}$ 中输出密度函数,则因子 3 不可改进;(ii)若允许算法输出任意密度函数(例如来自 $\mathcal{Q}$ 的密度混合),则逼近因子可降至 2,且该值为最优。这尤其证明了在此设定下非规范学习相对于规范学习的优势。为实现最优逼近因子 2,我们提出了两种方法:自适应方法与静态方法。两种方法均基于该问题的几何视角,并依赖于对总变差距离的代理度量进行估计。我们的样本复杂度边界利用了《自适应数据分析》中的技术。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
相关论文
Arxiv
11+阅读 · 2019年4月15日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
26+阅读 · 2018年2月27日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员