Mixture of experts (MoE) is a popular class of models in statistics and machine learning that has sustained attention over the years, due to its flexibility and effectiveness. We consider the Gaussian-gated localized MoE (GLoME) regression model for modeling heterogeneous data. This model poses challenging questions with respect to the statistical estimation and model selection problems, including feature selection, both from the computational and theoretical points of view. We study the problem of estimating the number of components of the GLoME model, in a penalized maximum likelihood estimation framework. We provide a lower bound on the penalty that ensures a weak oracle inequality is satisfied by our estimator. To support our theoretical result, we perform numerical experiments on simulated and real data, which illustrate the performance of our finite-sample oracle inequality.


翻译:专家混合(MoE)是统计和机器学习方面最受欢迎的模型,多年来因其灵活性和有效性而一直受到关注。我们认为高山化本地化的MOE(GLOME)回归模型用于建模多种数据。这一模型对统计估计和模型选择问题提出了具有挑战性的问题,包括从计算和理论角度选择特征。我们研究了在受处罚的最大可能性估计框架内估算GLOME模型组成部分数量的问题。我们对于确保我们的估算者满足弱骨骼不平等的处罚提供了较低的约束。为了支持我们的理论结果,我们对模拟和真实数据进行了数字实验,这显示了我们有限的标本或标本不平等的表现。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【新书】Python编程基础,669页pdf
专知会员服务
193+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
7+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关资讯
已删除
将门创投
7+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Top
微信扫码咨询专知VIP会员