成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
随机梯度下降
关注
19
随机梯度下降,按照数据生成分布抽取m个样本,通过计算他们梯度的平均值来更新梯度。
综合
百科
VIP
热门
动态
论文
精华
Convergence of continuous-time stochastic gradient descent with applications to deep neural networks
Arxiv
0+阅读 · 10月31日
Quantum Stochastic Gradient Descent in its continuous-time limit based on the Wigner formulation of Open Quantum Systems
Arxiv
0+阅读 · 10月29日
Stopping Rules for Monte Carlo Methods of Martingale Difference Type
Arxiv
0+阅读 · 10月26日
Controlling the Flow: Stability and Convergence for Stochastic Gradient Descent with Decaying Regularization
Arxiv
0+阅读 · 10月23日
Stochastic gradient descent in high dimensions for multi-spiked tensor PCA
Arxiv
0+阅读 · 10月23日
Exact Dynamics of Multi-class Stochastic Gradient Descent
Arxiv
0+阅读 · 10月15日
Statistical Guarantees for High-Dimensional Stochastic Gradient Descent
Arxiv
0+阅读 · 10月13日
Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size
Arxiv
0+阅读 · 10月13日
Stochastic gradient descent estimation of generalized matrix factorization models with application to single-cell RNA sequencing data
Arxiv
0+阅读 · 10月11日
Truncated Kernel Stochastic Gradient Descent with General Losses and Spherical Radial Basis Functions
Arxiv
0+阅读 · 10月10日
Online and Offline Robust Multivariate Linear Regression
Arxiv
0+阅读 · 10月10日
Convergence Rate for the Last Iterate of Stochastic Gradient Descent Schemes
Arxiv
0+阅读 · 10月10日
Stochastic Gradient Descent for Incomplete Tensor Linear Systems
Arxiv
0+阅读 · 10月8日
Faster Convergence of Riemannian Stochastic Gradient Descent with Increasing Batch Size
Arxiv
0+阅读 · 9月27日
Characterizing Dynamical Stability of Stochastic Gradient Descent in Overparameterized Learning
Arxiv
0+阅读 · 7月17日
参考链接
父主题
深度学习
神经网络
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top