成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Batch Size
关注
1
综合
百科
VIP
热门
动态
论文
精华
Memory-Reduced Meta-Learning with Guaranteed Convergence
Arxiv
0+阅读 · 12月16日
SmolTulu: Higher Learning Rate to Batch Size Ratios Can Lead to Better Reasoning in SLMs
Arxiv
0+阅读 · 12月11日
SPEAR:Exact Gradient Inversion of Batches in Federated Learning
Arxiv
0+阅读 · 12月9日
Mixture of Cache-Conditional Experts for Efficient Mobile Device Inference
Arxiv
0+阅读 · 11月27日
Batch Bayesian Optimization via Expected Subspace Improvement
Arxiv
0+阅读 · 11月25日
Non-convex Stochastic Composite Optimization with Polyak Momentum
Arxiv
0+阅读 · 11月18日
Data movement limits to frontier model training
Arxiv
0+阅读 · 11月13日
How Does Critical Batch Size Scale in Pre-training?
Arxiv
0+阅读 · 11月8日
Communication-Efficient Adaptive Batch Size Strategies for Distributed Local Gradient Methods
Arxiv
0+阅读 · 11月6日
Classification Done Right for Vision-Language Pre-Training
Arxiv
0+阅读 · 11月6日
Classification Done Right for Vision-Language Pre-Training
Arxiv
0+阅读 · 11月5日
NEO: Saving GPU Memory Crisis with CPU Offloading for Online LLM Inference
Arxiv
0+阅读 · 11月2日
Data movement limits to frontier model training
Arxiv
0+阅读 · 11月2日
Computational Bottlenecks of Training Small-scale Large Language Models
Arxiv
0+阅读 · 10月25日
Increasing Both Batch Size and Learning Rate Accelerates Stochastic Gradient Descent
Arxiv
0+阅读 · 10月16日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top