成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
小批量随机
关注
0
综合
百科
VIP
热门
动态
论文
精华
Communication-Efficient Adaptive Batch Size Strategies for Distributed Local Gradient Methods
Arxiv
0+阅读 · 2024年6月20日
A Theoretical Analysis of Noise Geometry in Stochastic Gradient Descent
Arxiv
0+阅读 · 2024年2月1日
Sharper Analysis for Minibatch Stochastic Proximal Point Methods: Stability, Smoothness, and Deviation
Arxiv
0+阅读 · 2023年1月9日
Minibatch Stochastic Three Points Method for Unconstrained Smooth Minimization
Arxiv
0+阅读 · 2022年9月16日
On Convergence of FedProx: Local Dissimilarity Invariant Bounds, Non-smoothness and Beyond
Arxiv
0+阅读 · 2022年6月10日
An Even More Optimal Stochastic Optimization Algorithm: Minibatching and Interpolation Learning
Arxiv
0+阅读 · 2021年6月4日
On the Generalization Benefit of Noise in Stochastic Gradient Descent
Arxiv
0+阅读 · 2020年6月26日
DaSGD: Squeezing SGD Parallelization Performance in Distributed Training Using Delayed Averaging
Arxiv
0+阅读 · 2020年5月31日
Accelerating Minibatch Stochastic Gradient Descent using Typicality Sampling
Arxiv
0+阅读 · 2019年3月11日
A Scalable Discrete-Time Survival Model for Neural Networks
Arxiv
0+阅读 · 2018年11月19日
signSGD: Compressed Optimisation for Non-Convex Problems
Arxiv
0+阅读 · 2018年8月7日
signSGD: Compressed Optimisation for Non-Convex Problems
Arxiv
0+阅读 · 2018年6月23日
Integrated Model, Batch and Domain Parallelism in Training Neural Networks
Arxiv
0+阅读 · 2018年5月16日
Integrated Model, Batch and Domain Parallelism in Training Neural Networks
Arxiv
0+阅读 · 2018年2月14日
signSGD: compressed optimisation for non-convex problems
Arxiv
0+阅读 · 2018年2月13日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top