成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
Adam
关注
0
综合
百科
VIP
热门
动态
论文
精华
Arc Gradient Descent: A Mathematically Derived Reformulation of Gradient Descent with Phase-Aware, User-Controlled Step Dynamics
Arxiv
0+阅读 · 12月20日
AdaMuon: Adaptive Muon Optimizer
Arxiv
0+阅读 · 12月24日
AuON: A Linear-time Alternative to Orthogonal Momentum Updates
Arxiv
0+阅读 · 12月6日
AuON: A Linear-time Alternative to Orthogonal Momentum Updates
Arxiv
0+阅读 · 12月18日
Adam Reduces a Unique Form of Sharpness: Theoretical Insights Near the Minimizer Manifold
Arxiv
0+阅读 · 11月4日
HVAdam: A Full-Dimension Adaptive Optimizer
Arxiv
0+阅读 · 11月25日
AdamX: An Adam improvement algorithm based on a novel exponential decay mechanism for the second-order moment estimate
Arxiv
0+阅读 · 11月19日
AdamNX: An Adam improvement algorithm based on a novel exponential decay mechanism for the second-order moment estimate
Arxiv
0+阅读 · 11月20日
AdamNX: An Adam improvement algorithm based on a novel exponential decay mechanism for the second-order moment estimate
Arxiv
0+阅读 · 12月1日
AdamX: An Adam improvement algorithm based on a novel exponential decay mechanism for the second-order moment estimate
Arxiv
0+阅读 · 11月17日
Implicit Bias of Per-sample Adam on Separable Data: Departure from the Full-batch Regime
Arxiv
0+阅读 · 11月1日
Implicit Bias of Per-sample Adam on Separable Data: Departure from the Full-batch Regime
Arxiv
0+阅读 · 10月30日
A Convexity-dependent Two-Phase Training Algorithm for Deep Neural Networks
Arxiv
0+阅读 · 10月30日
A Convexity-dependent Two-Phase Training Algorithm for Deep Neural Networks
Arxiv
0+阅读 · 10月29日
Purifying Shampoo: Investigating Shampoo's Heuristics by Decomposing its Preconditioner
Arxiv
0+阅读 · 10月29日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top