成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
联邦学习
关注
199
联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
综合
百科
VIP
热门
动态
论文
精华
TAPFed: Threshold Secure Aggregation for Privacy-Preserving Federated Learning
Arxiv
0+阅读 · 1月9日
Game-Theoretic Joint Incentive and Cut Layer Selection Mechanism in Split Federated Learning
Arxiv
0+阅读 · 2024年12月29日
Locally Differentially Private Online Federated Learning With Correlated Noise
Arxiv
0+阅读 · 1月8日
Caesar: A Low-deviation Compression Approach for Efficient Federated Learning
Arxiv
0+阅读 · 2024年12月28日
Convergence Analysis of Split Federated Learning on Heterogeneous Data
Arxiv
0+阅读 · 1月9日
FedGIG: Graph Inversion from Gradient in Federated Learning
Arxiv
0+阅读 · 2024年12月24日
Gradient Purification: Defense Against Poisoning Attack in Decentralized Federated Learning
Arxiv
0+阅读 · 1月8日
On the Convergence of Continual Federated Learning Using Incrementally Aggregated Gradients
Arxiv
0+阅读 · 1月13日
Task-Agnostic Federated Learning
Arxiv
0+阅读 · 1月6日
Disentangling data distribution for Federated Learning
Arxiv
0+阅读 · 2024年12月30日
Accelerating Energy-Efficient Federated Learning in Cell-Free Networks with Adaptive Quantization
Arxiv
0+阅读 · 2024年12月30日
Cooperative Decentralized Backdoor Attacks on Vertical Federated Learning
Arxiv
0+阅读 · 1月16日
Delayed Random Partial Gradient Averaging for Federated Learning
Arxiv
0+阅读 · 2024年12月28日
Maximizing Uncertainty for Federated learning via Bayesian Optimisation-based Model Poisoning
Arxiv
0+阅读 · 1月15日
Maximizing Uncertainty for Federated learning via Bayesian Optimisation-based Model Poisoning
Arxiv
0+阅读 · 1月14日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top