We study the statistical and computational complexities of the Polyak step size gradient descent algorithm under generalized smoothness and Lojasiewicz conditions of the population loss function, namely, the limit of the empirical loss function when the sample size goes to infinity, and the stability between the gradients of the empirical and population loss functions, namely, the polynomial growth on the concentration bound between the gradients of sample and population loss functions. We demonstrate that the Polyak step size gradient descent iterates reach a final statistical radius of convergence around the true parameter after logarithmic number of iterations in terms of the sample size. It is computationally cheaper than the polynomial number of iterations on the sample size of the fixed-step size gradient descent algorithm to reach the same final statistical radius when the population loss function is not locally strongly convex. Finally, we illustrate our general theory under three statistical examples: generalized linear model, mixture model, and mixed linear regression model.


翻译:我们研究了在人口损失功能普遍平滑和Lojasiewicz条件下Polyak 梯度梯度梯度下降算法的统计和计算复杂性,即当抽样规模达到无限度时经验损失函数的限度,以及经验性和人口损失函数梯度之间的稳定性,即关于抽样梯度与人口损失函数之间集中的多角度增长。我们证明,Polyak 梯度梯度梯度下降值在抽样规模的迭代数对数之后,在真实参数周围达到最后的统计半径。在人口损失函数不具有很强的本地共性时,计算比固定梯度梯度梯度梯度下降算法抽样规模的多数值要便宜,以达到相同的最终统计半径。最后,我们用三个统计例子(通用线性模型、混合模型和混合线性回归模型)来说明我们的一般理论。

0
下载
关闭预览

相关内容

CC在计算复杂性方面表现突出。它的学科处于数学与计算机理论科学的交叉点,具有清晰的数学轮廓和严格的数学格式。官网链接:https://link.springer.com/journal/37
专知会员服务
50+阅读 · 2020年12月14日
【Google】梯度下降,48页ppt
专知会员服务
80+阅读 · 2020年12月5日
专知会员服务
52+阅读 · 2020年9月7日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
回顾目标检测中的Anchor机制
极市平台
8+阅读 · 2020年10月14日
tf.GradientTape 详解
TensorFlow
120+阅读 · 2020年2月21日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Soft-NMS – Improving Object Detection With One Line of Code
统计学习与视觉计算组
6+阅读 · 2018年3月30日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月8日
Arxiv
0+阅读 · 2021年12月7日
VIP会员
相关资讯
回顾目标检测中的Anchor机制
极市平台
8+阅读 · 2020年10月14日
tf.GradientTape 详解
TensorFlow
120+阅读 · 2020年2月21日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Soft-NMS – Improving Object Detection With One Line of Code
统计学习与视觉计算组
6+阅读 · 2018年3月30日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员