Federated learning utilizes various resources provided by participants to collaboratively train a global model, which potentially address the data privacy issue of machine learning. In such promising paradigm, the performance will be deteriorated without sufficient training data and other resources in the learning process. Thus, it is quite crucial to inspire more participants to contribute their valuable resources with some payments for federated learning. In this paper, we present a comprehensive survey of incentive schemes for federate learning. Specifically, we identify the incentive problem in federated learning and then provide a taxonomy for various schemes. Subsequently, we summarize the existing incentive mechanisms in terms of the main techniques, such as Stackelberg game, auction, contract theory, Shapley value, reinforcement learning, blockchain. By reviewing and comparing some impressive results, we figure out three directions for the future study.


翻译:联邦学习联盟利用参与者提供的各种资源,合作培训全球模式,这有可能解决机器学习的数据隐私问题,在这种有希望的模式中,如果没有足够的培训数据和学习过程中的其他资源,业绩将恶化,因此,激励更多的参与者贡献宝贵资源,为联合会学习支付一些费用,这是相当关键的。在本文件中,我们对联合会学习的奖励计划进行了全面调查。具体地说,我们确定了联合会学习的激励问题,然后为各种计划提供了分类。随后,我们从主要技术方面总结了现有的奖励机制,例如斯塔克尔伯格游戏、拍卖、合同理论、夏普利价值、强化学习、障碍链。通过审查和比较一些令人印象深刻的成果,我们为未来的研究找出了三个方向。

0
下载
关闭预览

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年10月11日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
9+阅读 · 2021年3月25日
Arxiv
5+阅读 · 2020年8月28日
A Comprehensive Survey on Transfer Learning
Arxiv
118+阅读 · 2019年11月7日
VIP会员
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年10月11日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Arxiv
103+阅读 · 2021年6月8日
Arxiv
9+阅读 · 2021年3月25日
Arxiv
5+阅读 · 2020年8月28日
A Comprehensive Survey on Transfer Learning
Arxiv
118+阅读 · 2019年11月7日
Top
微信扫码咨询专知VIP会员