开发机器学习模型在很大程度上依赖于访问数据。为了建立负责任的数据经济并保护数据所有权,关键是在不集中的情况下使学习模型能够从不同的异构数据源中进行学习。联邦学习(Federated Learning,FL)旨在在大量远程设备或隔离组织之间集体训练模型,同时保持用户数据本地化。然而,联邦网络引入了许多超出传统分布式学习场景的挑战。虽然FL在实现边缘应用方面显示出巨大的潜力,但当前的FL系统受到若干限制。除了准确性之外,联邦方法必须能够适应潜在的大规模和异构的设备网络,并且必须表现出值得信赖的行为,以解决与公平性、稳健性和用户隐私等问题相关的实际问题。在本论文中,我们旨在以一种有原则的方式解决联邦学习的实际挑战。我们研究了异构性如何成为联邦学习约束的核心,它不仅影响模型的准确性,还与其他关键指标(如公平性、稳健性和隐私)相互竞争。为了解决这些指标,我们开发了新的可扩展学习目标和算法,严格考虑和解决异构性的来源。特别地,在准确性方面,我们提出了在实际异构性假设下具有收敛性保证的新型联邦优化框架。在信任性方面,我们开发并分析了公平学习目标,提供了灵活的公平性/效用权衡。我们考虑了公平性和稳健性之间的联合约束,并探索了个性化FL,以能够同时可证明地解决两者。最后,我们研究了新的差分隐私优化方法,改善了在隐私约束下的收敛性能,实现了最先进的隐私性能。尽管我们的工作以联邦学习的应用为基础,但我们表明许多技术和基本权衡在更一般的大规模和值得信赖的机器学习应用中都有很好的推广价值。

成为VIP会员查看完整内容
24

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
【CMU博士论文】异构网络可信可扩展学习,296页pdf
专知会员服务
32+阅读 · 2023年9月24日
【ETH博士论文】基于离散优化的学习,193页pdf
专知会员服务
43+阅读 · 2023年9月17日
【牛津大学博士论文】元强化学习的快速自适应,217页pdf
【MIT博士论文】数据高效强化学习,176页pdf
专知会员服务
85+阅读 · 2022年7月11日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
128+阅读 · 2020年8月27日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年10月12日
A Survey of Large Language Models
Arxiv
397+阅读 · 2023年3月31日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关VIP内容
【CMU博士论文】异构网络可信可扩展学习,296页pdf
专知会员服务
32+阅读 · 2023年9月24日
【ETH博士论文】基于离散优化的学习,193页pdf
专知会员服务
43+阅读 · 2023年9月17日
【牛津大学博士论文】元强化学习的快速自适应,217页pdf
【MIT博士论文】数据高效强化学习,176页pdf
专知会员服务
85+阅读 · 2022年7月11日
【CMU博士论文】机器人深度强化学习,128页pdf
专知会员服务
128+阅读 · 2020年8月27日
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员