Stochastic gradient descent (SGD) is a cornerstone of machine learning. When the number N of data items is large, SGD relies on constructing an unbiased estimator of the gradient of the empirical risk using a small subset of the original dataset, called a minibatch. Default minibatch construction involves uniformly sampling a subset of the desired size, but alternatives have been explored for variance reduction. In particular, experimental evidence suggests drawing minibatches from determinantal point processes (DPPs), distributions over minibatches that favour diversity among selected items. However, like in recent work on DPPs for coresets, providing a systematic and principled understanding of how and why DPPs help has been difficult. In this work, we contribute an orthogonal polynomial-based DPP paradigm for minibatch sampling in SGD. Our approach leverages the specific data distribution at hand, which endows it with greater sensitivity and power over existing data-agnostic methods. We substantiate our method via a detailed theoretical analysis of its convergence properties, interweaving between the discrete data set and the underlying continuous domain. In particular, we show how specific DPPs and a string of controlled approximations can lead to gradient estimators with a variance that decays faster with the batchsize than under uniform sampling. Coupled with existing finite-time guarantees for SGD on convex objectives, this entails that, DPP minibatches lead to a smaller bound on the mean square approximation error than uniform minibatches. Moreover, our estimators are amenable to a recent algorithm that directly samples linear statistics of DPPs (i.e., the gradient estimator) without sampling the underlying DPP (i.e., the minibatch), thereby reducing computational overhead. We provide detailed synthetic as well as real data experiments to substantiate our theoretical claims.


翻译:皮肤梯度下降是机器学习的基石。 当数据项目数量很大时, SGD 依靠使用原始数据集中的一小部分,称为微型批量,对实验风险的梯度进行公正的估计。 默认微型批量的建设涉及统一抽样所期望的一组尺寸, 但已经探索了减少差异的替代方法。 特别是, 实验证据表明从决定点进程( DPPs) 中提取迷你信箱, 分布于有利于选定项目多样性的微型信箱。 然而, 如最近关于核心数据集的DPP工作一样, 需要用一种系统化和原则性的理解, 从而了解 DPP 如何以及为什么直接帮助。 在这项工作中, 我们为SGDD提供一种或多或多的基于 DPP 的模型模式, 我们的方法利用了手边上的具体数据分布, 将我们的数据的敏感度和力量置于现有的数据- 定量方法上。 我们通过对其趋同性的详细理论分析来证实我们的方法, 将离心的数据集数据集和直径的DPPDO值数据连接起来, 特别是, 我们用直径直径直到直到直径直径的直径的DNA数据。 我们用直径的基数据, 我们用具体的基的基的基数据,, 向直路的基的基的基数据可以显示的基底, 直压的基底的基底的基底,, 向, 直径底, 我们显示的基底的基底, 我们显示的基的基的基的基的基底, 向, 向的基底的基底的基底的基底的基底的基底的基底的基底的基底的基底的基底的基底的基底的基的基底的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的基的

0
下载
关闭预览

相关内容

【硬核书】矩阵代数基础,248页pdf
专知会员服务
84+阅读 · 2021年12月9日
专知会员服务
50+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【2020新书】概率机器学习,附212页pdf与slides
专知会员服务
108+阅读 · 2020年11月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员