This paper is concerned with functional learning by utilizing two-stage sampled distribution regression. We study a multi-penalty regularization algorithm for distribution regression under the framework of learning theory. The algorithm aims at regressing to real valued outputs from probability measures. The theoretical analysis on distribution regression is far from maturity and quite challenging, since only second stage samples are observable in practical setting. In the algorithm, to transform information from samples, we embed the distributions to a reproducing kernel Hilbert space $\mathcal{H}_K$ associated with Mercer kernel $K$ via mean embedding technique. The main contribution of the paper is to present a novel multi-penalty regularization algorithm to capture more features of distribution regression and derive optimal learning rates for the algorithm. The work also derives learning rates for distribution regression in the nonstandard setting $f_{\rho}\notin\mathcal{H}_K$, which is not explored in existing literature. Moreover, we propose a distribution regression-based distributed learning algorithm to face large-scale data or information challenge. The optimal learning rates are derived for the distributed learning algorithm. By providing new algorithms and showing their learning rates, we improve the existing work in different aspects in the literature.


翻译:本文涉及通过使用两个阶段抽样分布回归进行功能性学习。 我们研究在学习理论的框架内, 分配回归的多功能性正规化算法。 算法旨在从概率测量中向实际价值产出倒退。 分配回归的理论分析远远不成熟, 具有相当大的挑战性, 因为只有第二阶段的样本可以在实际环境中观测到。 在算法中, 要转换样本中的信息, 我们将分布嵌入到复制与Mercer 内核( $K$) 相联的内核空间 $\ mathcal{H ⁇ K$ 。 论文的主要贡献是展示一种新的多功能正规化算法, 以捕捉更多的分布回归特征, 并为算法获取最佳学习率。 这项工作还得出了非标准设置 $ffqrónotin\ mathcal{H ⁇ K$, $H ⁇ K$, 在现有的文献中没有探讨。 此外, 我们提议一种基于分配回归性分布式的学习算法, 以面对大规模的数据或信息挑战。 最佳学习率用于分布式的学习算法。 通过提供新的算法和显示它们的不同学习速度, 我们改进了现有的学习速度。

0
下载
关闭预览

相关内容

元学习(meta learning) 最新进展综述论文
专知会员服务
281+阅读 · 2020年5月8日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员