联邦学习近年来受到广泛关注,催生了大量方法。然而,大多数方法仅关注传统的最小化问题,未能解决机器学习中新兴的学习范式。因此,本教程聚焦于可以表述为随机组合优化(SCO)问题和随机双层优化(SBO)问题的学习范式,因为它们涵盖了传统最小化问题之外的各种机器学习模型,如模型无关元学习、不平衡数据分类模型、对比自监督学习模型、图神经网络、神经架构搜索等。组合结构和双层结构为联邦学习带来了独特的计算和通信挑战。为了应对这些挑战,近年来开发了一系列联邦组合优化和联邦双层优化方法。然而,这些进展并未得到广泛传播。因此,本教程旨在介绍联邦SCO和SBO的独特挑战、最新进展以及实际应用。观众将通过本教程深入了解联邦SCO和SBO算法,并学习如何将其应用于实际应用中。 https://hcgao.github.io/tutorial_ijcai2025.html

成为VIP会员查看完整内容
1

相关内容

【LoG 2024教程】几何生成模型教程
专知会员服务
32+阅读 · 2024年11月28日
【CIKM2024教程】大语言模型在表格任务中的应用
专知会员服务
23+阅读 · 2024年10月30日
【CVPR2024】扩散模型的结构指导对抗训练
专知会员服务
27+阅读 · 2024年2月28日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
31+阅读 · 2022年10月17日
专知会员服务
38+阅读 · 2021年4月25日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
26+阅读 · 2020年10月13日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
斯坦福CS236-深度生成模型2019-全套课程资料分享
深度学习与NLP
20+阅读 · 2019年8月20日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
480+阅读 · 2023年3月31日
Arxiv
79+阅读 · 2023年3月26日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【LoG 2024教程】几何生成模型教程
专知会员服务
32+阅读 · 2024年11月28日
【CIKM2024教程】大语言模型在表格任务中的应用
专知会员服务
23+阅读 · 2024年10月30日
【CVPR2024】扩散模型的结构指导对抗训练
专知会员服务
27+阅读 · 2024年2月28日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
31+阅读 · 2022年10月17日
专知会员服务
38+阅读 · 2021年4月25日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
26+阅读 · 2020年10月13日
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员