成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
SGD
关注
0
综合
百科
VIP
热门
动态
论文
精华
Hybrid Quantum-Classical Scheduling for Accelerating Neural Network Training with Newton's Gradient Descent
Arxiv
0+阅读 · 4月30日
SOFIM: Stochastic Optimization Using Regularized Fisher Information Matrix
Arxiv
0+阅读 · 5月1日
Proof-of-Learning with Incentive Security
Arxiv
0+阅读 · 4月30日
Statistical Inference for Linear Functionals of Online SGD in High-dimensional Linear Regression
Arxiv
0+阅读 · 4月29日
Proof-of-Learning with Incentive Security
Arxiv
0+阅读 · 4月29日
Singular-limit analysis of gradient descent with noise injection
Arxiv
0+阅读 · 4月18日
Noise Stability Optimization for Flat Minima with Tight Rates
Arxiv
0+阅读 · 4月18日
On the Trajectories of SGD Without Replacement
Arxiv
0+阅读 · 4月20日
Matching the Statistical Query Lower Bound for k-sparse Parity Problems with Stochastic Gradient Descent
Arxiv
0+阅读 · 4月18日
Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach
Arxiv
0+阅读 · 4月17日
Clipped SGD Algorithms for Privacy Preserving Performative Prediction: Bias Amplification and Remedies
Arxiv
0+阅读 · 4月17日
Stochastic Normalized Gradient Descent with Momentum for Large-Batch Training
Arxiv
0+阅读 · 4月15日
On the $O(\frac{\sqrt{d}}{T^{1/4}})$ Convergence Rate of RMSProp and Its Momentum Extension Measured by $\ell_1$ Norm
Arxiv
0+阅读 · 4月15日
On the $O(\frac{\sqrt{d}}{T^{1/4}})$ Convergence Rate of RMSProp and Its Momentum Extension Measured by $\ell_1$ Norm
Arxiv
0+阅读 · 4月11日
Demystifying Why Local Aggregation Helps: Convergence Analysis of Hierarchical SGD
Arxiv
0+阅读 · 4月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top