We exploit the observation that stochastic variational inference (SVI) is a form of annealing and present a modified SVI approach -- applicable to both large and small datasets -- that allows the amount of annealing done by SVI to be tuned. We are motivated by the fact that, in SVI, the larger the batch size the more approximately Gaussian is the noise of the gradient, but the smaller its variance, which reduces the amount of annealing done to escape bad local optimal solutions. We propose a simple method for achieving both goals of having larger variance noise to escape bad local optimal solutions and more data information to obtain more accurate gradient directions. The idea is to set an actual batch size, which may be the size of the data set, and an effective batch size that matches the increased variance of a smaller batch size. The result is an approximation to the maximum entropy stochastic gradient at a desired variance level. We theoretically motivate our ``SVI+'' approach for conjugate exponential family model framework and illustrate its empirical performance for learning the probabilistic matrix factorization collaborative filter (PMF), the Latent Dirichlet Allocation topic model (LDA), and the Gaussian mixture model (GMM).


翻译:我们利用随机变分推断(SVI)是一种退火形式的观察,提出了一种改进的SVI方法——适用于大型和小型数据集——该方法允许调整SVI执行的退火程度。我们的动机在于,在SVI中,批量大小越大,梯度噪声越近似高斯分布,但其方差越小,这减少了为逃离不良局部最优解而进行的退火量。我们提出了一种简单方法,旨在同时实现两个目标:拥有更大方差的噪声以逃离不良局部最优解,以及获取更多数据信息以获得更准确的梯度方向。其核心思想是设定一个实际批量大小(可以是数据集的大小)和一个有效批量大小,后者与较小批量大小所增加的方差相匹配。结果是在期望方差水平上对最大熵随机梯度的近似。我们从理论上论证了我们的“SVI+”方法在共轭指数族模型框架中的合理性,并通过学习概率矩阵分解协同过滤(PMF)、潜在狄利克雷分配主题模型(LDA)和高斯混合模型(GMM)展示了其经验性能。

0
下载
关闭预览

相关内容

专知会员服务
29+阅读 · 2020年10月2日
【NeurIPS2020】可处理的反事实推理的深度结构因果模型
专知会员服务
49+阅读 · 2020年9月28日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 11月22日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员