近年来,去中心化学习因其在实现简便性、系统鲁棒性和数据隐私方面的优势而在机器学习中受到越来越多的关注。同时,自适应梯度方法在许多机器学习任务中(如神经网络训练)表现出卓越的性能。尽管已有一些工作专注于研究具有自适应学习率的去中心化优化算法,但这些自适应去中心化算法仍然面临高样本复杂度的问题。为填补这些空白,我们提出了一类更快的自适应去中心化算法(即AdaMDOS和AdaMDOF),分别适用于分布式非凸随机优化和有限和优化。此外,我们为这些方法提供了坚实的收敛性分析框架。特别是,我们证明了AdaMDOS在求解非凸随机优化的ϵ-平稳解时,具有接近最优的样本复杂度O˜(ϵ⁻³)。同时,我们的AdaMDOF在求解非凸有限和优化的ϵ-平稳解时,达到了接近最优的样本复杂度O(√nϵ⁻²),其中n表示样本大小。据我们所知,AdaMDOF算法是首个针对非凸有限和优化的自适应去中心化算法。一些实验结果展示了我们算法的高效性。

成为VIP会员查看完整内容
21

相关内容

【ICML2024】上下文感知标记化的高效世界模型
专知会员服务
25+阅读 · 7月2日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
24+阅读 · 2021年7月8日
专知会员服务
37+阅读 · 2021年6月19日
专知会员服务
37+阅读 · 2021年4月25日
综述| 当图神经网络遇上强化学习
图与推荐
29+阅读 · 2022年7月1日
【AI与医学】多模态机器学习精准医疗健康
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
14+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
148+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
375+阅读 · 2023年3月31日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
【ICML2024】上下文感知标记化的高效世界模型
专知会员服务
25+阅读 · 7月2日
【NeurIPS 2023】基于时间注意力的多任务强化学习对比模块
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
24+阅读 · 2021年7月8日
专知会员服务
37+阅读 · 2021年6月19日
专知会员服务
37+阅读 · 2021年4月25日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
14+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
相关论文
Arxiv
148+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
375+阅读 · 2023年3月31日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
10+阅读 · 2020年11月26日
微信扫码咨询专知VIP会员