We consider nonparametric classification with smooth regression functions, where it is well known that notions of margin in $E[Y|X]$ determine fast or slow rates in both active and passive learning. Here we elucidate a striking distinction between the two settings. Namely, we show that some seemingly benign nuances in notions of margin -- involving the uniqueness of the Bayes classifier, and which have no apparent effect on rates in passive learning -- determine whether or not any active learner can outperform passive learning rates. In particular, for Audibert-Tsybakov's margin condition (allowing general situations with non-unique Bayes classifiers), no active learner can gain over passive learning in commonly studied settings where the marginal on $X$ is near uniform. Our results thus negate the usual intuition from past literature that active rates should improve over passive rates in nonparametric settings.


翻译:我们考虑的是具有平稳回归功能的非对称分类,因为众所周知,以E[Y ⁇ X]$计的差值概念决定了主动和被动学习的快速或缓慢率。我们在这里阐述了两种设置之间的鲜明区别。也就是说,我们表明,在差值概念中有些看似良性的细微差别 -- -- 涉及贝耶斯分类员的独特性,对被动学习率没有明显影响 -- -- 确定任何积极学习者能否优于被动学习率。特别是,对于奥迪伯特-齐巴科夫的差值条件(允许非独角湾分类师采用一般情况),在通常研究环境中,对美元边际的边际接近统一,没有积极的学习者可以比被动学习得更多。因此,我们的结果否定了以往文献中通常的直觉,即积极率应高于非对称环境的被动率。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
已删除
将门创投
5+阅读 · 2018年3月21日
Arxiv
0+阅读 · 2021年12月13日
Arxiv
0+阅读 · 2021年12月10日
Arxiv
49+阅读 · 2021年5月9日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
6+阅读 · 2019年12月30日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2018年3月21日
相关论文
Arxiv
0+阅读 · 2021年12月13日
Arxiv
0+阅读 · 2021年12月10日
Arxiv
49+阅读 · 2021年5月9日
Arxiv
18+阅读 · 2021年3月16日
Arxiv
6+阅读 · 2019年12月30日
Arxiv
11+阅读 · 2018年7月8日
Arxiv
3+阅读 · 2016年2月24日
Top
微信扫码咨询专知VIP会员