Many current applications in data science need rich model classes to adequately represent the statistics that may be driving the observations. But rich model classes may be too complex to admit estimators that converge to the truth with convergence rates that can be uniformly bounded over the entire collection of probability distributions comprising the model class, i.e. it may be impossible to guarantee uniform consistency of such estimators as the sample size increases. In such cases, it is conventional to settle for estimators with guarantees on convergence rate where the performance can be bounded in a model-dependent way, i.e. pointwise consistent estimators. But this viewpoint has the serious drawback that estimator performance is a function of the unknown model within the model class that is being estimated, and is therefore unknown. Even if an estimator is consistent, how well it is doing at any given time may not be clear, no matter what the sample size of the observations. Departing from the classical uniform/pointwise consistency dichotomy that leads to this impasse, a new analysis framework is explored by studying rich model classes that may only admit pointwise consistency guarantees, yet all the information about the unknown model driving the observations that is needed to gauge estimator accuracy can be inferred from the sample at hand. We expect that this data-derived estimation framework will be broadly applicable to a wide range of estimation problems by providing a methodology to deal with much richer model classes. In this paper we analyze the lossless compression problem in detail in this novel data-derived framework.


翻译:数据科学的许多当前应用需要丰富的模型类别,以充分代表可能导致观测的统计。但丰富的模型类别可能过于复杂,无法接受与正由模型类别组成的整个概率分布收集一致的、可统一约束于由模型类别组成的整个概率分布收集的、与真理趋同率相趋同的估算者,也就是说,由于样本规模的增加,可能无法保证估算者的统一一致性。在这种情况下,确定具有一致性的估算者,保证性能能够以依赖模型的方式约束趋同率,即,点性一致的估算者。但是,这种观点可能过于复杂,因为估计性能表现是正在估计的模型类别中未知的模型模型的函数,因此是未知的。即使估算者一致,在任何特定时间都可能无法保证这种估算的一致性,无论观察的样本大小如何,都是正常的。从典型的统一/点性一致性的对等分辨,通过研究可能只承认点一致性的模型类别,从而探索新的分析框架。在这种精确度的模型中,我们需要从这一未知的精确度的精确度的模型到模型的精确度的模型的估算方法。

0
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年9月7日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年7月25日
Arxiv
0+阅读 · 2021年7月14日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
18+阅读 · 2021年3月16日
Meta Learning for Causal Direction
Arxiv
5+阅读 · 2020年7月6日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关VIP内容
专知会员服务
52+阅读 · 2020年9月7日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年7月25日
相关论文
Arxiv
0+阅读 · 2021年7月14日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
18+阅读 · 2021年3月16日
Meta Learning for Causal Direction
Arxiv
5+阅读 · 2020年7月6日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Learning to Importance Sample in Primary Sample Space
Top
微信扫码咨询专知VIP会员