Based on the analysis of variance (ANOVA) decomposition of functions which relies on the assumption that the function we wish to approximate can be well explained by limited variable interaction, we propose a sparse Gaussian-like mixture model on the high dimensional torus. We consider three approaches, namely wrapped Gaussians, diagonal wrapped Gaussians and products of von Mises distributions. The sparsity of the mixture model is ensured by the fact that its summands are products of Gaussian-like density functions acting on low dimensional spaces and uniform probability densities defined on the remaining directions. To learn such a sparse mixture model from given samples, we propose an objective function consisting of the negative log-likelihood function of the mixture model and a regularizer that penalizes the number of its summands. For minimizing this functional we combine the Expectation Maximization algorithm with a proximal step that takes the regularizer into account. To decide which summands of the mixture model are important, we apply a Kolmogorov-Smirnov test. Numerical example demonstrate the performance of our approach.


翻译:根据对差异(ANOVA)分解功能的分析,即我们所希望的功能可以用有限的可变相互作用来很好地解释我们所希望的功能,根据这种假设,我们提议在高维横横柱上采用稀少的高斯类混合物模型。我们考虑三种方法,即包盖高山、双角包裹高斯和冯米泽斯分布的产物。混合物模型的宽度在于其总和是高斯类似密度函数的产物,在余下的方向上界定的低维度空间和统一概率密度。为了从特定样本中了解这种稀少的混合模型,我们建议一种客观功能,包括混合物模型的负日志类功能和一种常规功能,惩罚其总和的数量。为了最大限度地减少这一功能,我们把期望最大化算法与一个考虑到正规化器的准轴步骤结合起来。为了决定混合物模型的组合和总和重要性,我们应用一个 Kolmogorov-Smirnov 测试来说明我们的方法的绩效。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
专知会员服务
52+阅读 · 2020年9月7日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
已删除
将门创投
7+阅读 · 2018年11月5日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
0+阅读 · 2021年7月20日
Arxiv
0+阅读 · 2021年7月20日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Arxiv
3+阅读 · 2018年2月24日
Arxiv
3+阅读 · 2015年5月16日
VIP会员
相关VIP内容
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
已删除
将门创投
7+阅读 · 2018年11月5日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员