Federated Learning (FL) has emerged as a promising distributed learning paradigm with an added advantage of data privacy. With the growing interest in having collaboration among data owners, FL has gained significant attention of organizations. The idea of FL is to enable collaborating participants train machine learning (ML) models on decentralized data without breaching privacy. In simpler words, federated learning is the approach of ``bringing the model to the data, instead of bringing the data to the mode''. Federated learning, when applied to data which is partitioned vertically across participants, is able to build a complete ML model by combining local models trained only using the data with distinct features at the local sites. This architecture of FL is referred to as vertical federated learning (VFL), which differs from the conventional FL on horizontally partitioned data. As VFL is different from conventional FL, it comes with its own issues and challenges. In this paper, we present a structured literature review discussing the state-of-the-art approaches in VFL. Additionally, the literature review highlights the existing solutions to challenges in VFL and provides potential research directions in this domain.


翻译:联合学习(Federated Learning,FL)已成为一种有前途的分布式学习范例,具有数据隐私的附加优势。随着数据所有者之间合作的日益增多,FL已引起机构的广泛关注。FL的理念是使合作参与者在不破坏隐私的情况下,在分散的数据上训练机器学习模型。简单地说,联合学习是一种“将模型带到数据,而不是将数据带到模型”的方法。当对在参与者之间垂直分区的数据进行应用联合学习时,它能够通过仅使用本地网站上具有不同特征的数据训练的本地模型,构建完整的机器学习模型。这种FL的体系结构被称为垂直联合学习(Vertical Federated Learning,VFL),它不同于基于水平分区的常规FL。由于VFL与常规FL不同,因此它具有自己的问题和挑战。在本文中,我们提供了一篇结构化文献综述,讨论了VFL中的最新方法。此外,文献综述还突出了VFL中现有的挑战的现有解决方案,并提供了该领域的潜在研究方向。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Arxiv
20+阅读 · 2022年10月10日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员