Let a labeled dataset be given with scattered samples and consider the hypothesis of the ground-truth belonging to the reproducing kernel Hilbert space (RKHS) of a known positive-definite kernel. It is known that out-of-sample bounds can be established at unseen input locations, thus limiting the risk associated with learning this function. We show how computing tight, finite-sample uncertainty bounds amounts to solving parametric quadratically constrained linear programs. In our setting, the outputs are assumed to be contaminated by bounded measurement noise that can otherwise originate from any compactly supported distribution. No independence assumptions are made on the available data. Numerical experiments are presented to compare the present results with other closed-form alternatives.


翻译:使用分散的样本提供贴有标签的数据集,并考虑Hilbert空间(RKHS)复制核心空间(RKHS)的地面真实性假设,即已知的正定内核。已知可以在未知输入地点建立外标界限,从而限制与学习此功能相关的风险。我们展示了计算紧凑、有限抽样的不确定性界限如何相当于解决参数四边限制线性程序。在我们的设置中,产出假定受到来自任何压缩支持分布的封闭测量噪音的污染。对现有数据没有独立假设。我们用数字实验将现有结果与其他封闭式的替代数据进行比较。

0
下载
关闭预览

相关内容

专知会员服务
16+阅读 · 2021年5月21日
【ST2020硬核课】深度神经网络,57页ppt
专知会员服务
46+阅读 · 2020年8月19日
【ST2020硬核课】深度学习即统计学习,50页ppt
专知会员服务
66+阅读 · 2020年8月17日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
24+阅读 · 2020年4月7日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
47+阅读 · 2020年1月23日
专知会员服务
54+阅读 · 2019年12月22日
MIT新书《强化学习与最优控制》
专知会员服务
277+阅读 · 2019年10月9日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Learning the optimal regularizer for inverse problems
VIP会员
相关VIP内容
专知会员服务
16+阅读 · 2021年5月21日
【ST2020硬核课】深度神经网络,57页ppt
专知会员服务
46+阅读 · 2020年8月19日
【ST2020硬核课】深度学习即统计学习,50页ppt
专知会员服务
66+阅读 · 2020年8月17日
因果图,Causal Graphs,52页ppt
专知会员服务
248+阅读 · 2020年4月19日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
24+阅读 · 2020年4月7日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
47+阅读 · 2020年1月23日
专知会员服务
54+阅读 · 2019年12月22日
MIT新书《强化学习与最优控制》
专知会员服务
277+阅读 · 2019年10月9日
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员