成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
学习率
关注
0
综合
百科
VIP
热门
动态
论文
精华
Time Transfer: On Optimal Learning Rate and Batch Size In The Infinite Data Limit
Arxiv
0+阅读 · 1月9日
Optimality and Adaptivity of Deep Neural Features for Instrumental Variable Regression
Arxiv
0+阅读 · 1月9日
Gradient descent with generalized Newton's method
Arxiv
0+阅读 · 1月14日
Stability and convergence analysis of AdaGrad for non-convex optimization via novel stopping time-based techniques
Arxiv
0+阅读 · 2024年12月29日
Effects of Social Contextual Variation Using Partner Avatars on Memory Acquisition and Retention
Arxiv
0+阅读 · 1月16日
Towards Simple and Provable Parameter-Free Adaptive Gradient Methods
Arxiv
0+阅读 · 2024年12月27日
Matrix factorization and prediction for high dimensional co-occurrence count data via shared parameter alternating zero inflated Gamma model
Arxiv
0+阅读 · 2024年12月31日
Regularized Top-$k$: A Bayesian Framework for Gradient Sparsification
Arxiv
0+阅读 · 1月10日
Increasing Batch Size Improves Convergence of Stochastic Gradient Descent with Momentum
Arxiv
0+阅读 · 1月15日
Gradient Alignment Improves Test-Time Adaptation for Medical Image Segmentation
Arxiv
0+阅读 · 2024年12月27日
Global dense vector representations for words or items using shared parameter alternating Tweedie model
Arxiv
0+阅读 · 2024年12月31日
Amortising Variational Bayesian Inference over prior hyperparameters with a Normalising Flow
Arxiv
1+阅读 · 2024年12月21日
Dynamic Learning Rate Decay for Stochastic Variational Inference
Arxiv
1+阅读 · 2024年12月20日
No More Adam: Learning Rate Scaling at Initialization is All You Need
Arxiv
1+阅读 · 2024年12月17日
No More Adam: Learning Rate Scaling at Initialization is All You Need
Arxiv
1+阅读 · 2024年12月16日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top