Federated Recommender Systems (FedRecs) are considered privacy-preserving techniques to collaboratively learn a recommendation model without sharing user data. Since all participants can directly influence the systems by uploading gradients, FedRecs are vulnerable to poisoning attacks of malicious clients. However, most existing poisoning attacks on FedRecs are either based on some prior knowledge or with less effectiveness. To reveal the real vulnerability of FedRecs, in this paper, we present a new poisoning attack method to manipulate target items' ranks and exposure rates effectively in the top-$K$ recommendation without relying on any prior knowledge. Specifically, our attack manipulates target items' exposure rate by a group of synthetic malicious users who upload poisoned gradients considering target items' alternative products. We conduct extensive experiments with two widely used FedRecs (Fed-NCF and Fed-LightGCN) on two real-world recommendation datasets. The experimental results show that our attack can significantly improve the exposure rate of unpopular target items with extremely fewer malicious users and fewer global epochs than state-of-the-art attacks. In addition to disclosing the security hole, we design a novel countermeasure for poisoning attacks on FedRecs. Specifically, we propose a hierarchical gradient clipping with sparsified updating to defend against existing poisoning attacks. The empirical results demonstrate that the proposed defending mechanism improves the robustness of FedRecs.


翻译:Federated 推荐系统(FedRecs)是一种隐私保护技术,可以在不共享用户数据的情况下协同学习推荐模型。由于所有参与者都可以通过上传梯度直接影响系统,因此 FedRecs 容易受到恶意客户端的攻击。然而,大多数现有的 FedRecs 攻击要么基于某些先前的知识,要么攻击效果有限。为了揭示 FedRecs 的实际漏洞,本文提出了一种新的攻击方法,可以在不依赖任何先行知识的情况下,有效地操纵前 K 个推荐物品的排名和曝光率。具体而言,攻击通过一组合成的恶意用户去上传针对目标物品的毒瘤梯度,考虑了目标物品的可替代产品。我们在两个广泛使用的 FedRecs(Fed-NCF 和 Fed-LightGCN)上进行了广泛的实验,使用了两个实际推荐数据集。实验结果表明,我们的攻击可以在极少数的恶意用户和更少的全局时代的情况下,显着提高不受欢迎的目标物品的曝光率,但攻击效果比现有的攻击方法更好。除了揭示安全漏洞外,我们还设计了一种针对 FedRecs 污染攻击的新颖对策。具体而言,我们提出了一种分层梯度裁剪和稀疏更新的防御机制来抵御现有的攻击。经验结果表明,所提出的防御机制可以提高 FedRecs 的鲁棒性。

0
下载
关闭预览

相关内容

 DiffRec: 扩散推荐模型(SIGIR'23)
专知会员服务
46+阅读 · 2023年4月16日
【博士论文】推荐系统多行为建模与隐私保护研究
专知会员服务
52+阅读 · 2021年11月27日
【KDD2020-Tutorial】自动推荐系统,Automated Recommendation System
【WWW2020-华为诺亚方舟论文】元学习推荐系统MetaSelector
专知会员服务
55+阅读 · 2020年2月10日
专知会员服务
87+阅读 · 2020年1月20日
NeurlPS2022推荐系统论文集锦
机器学习与推荐算法
1+阅读 · 2022年9月26日
KDD22 | 推荐系统论文集锦(附pdf下载)
图与推荐
2+阅读 · 2022年7月25日
KDD2022推荐系统论文集锦(附pdf下载)
机器学习与推荐算法
0+阅读 · 2022年7月23日
WWW2022 | Recommendation Unlearning
机器学习与推荐算法
0+阅读 · 2022年6月2日
CIKM2020推荐系统论文集合
机器学习与推荐算法
10+阅读 · 2020年10月13日
KDD2020推荐系统论文聚焦
机器学习与推荐算法
15+阅读 · 2020年6月28日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
已删除
科学网
59+阅读 · 2018年2月9日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
12+阅读 · 2021年2月19日
Arxiv
14+阅读 · 2020年10月26日
Arxiv
14+阅读 · 2018年4月18日
VIP会员
相关资讯
NeurlPS2022推荐系统论文集锦
机器学习与推荐算法
1+阅读 · 2022年9月26日
KDD22 | 推荐系统论文集锦(附pdf下载)
图与推荐
2+阅读 · 2022年7月25日
KDD2022推荐系统论文集锦(附pdf下载)
机器学习与推荐算法
0+阅读 · 2022年7月23日
WWW2022 | Recommendation Unlearning
机器学习与推荐算法
0+阅读 · 2022年6月2日
CIKM2020推荐系统论文集合
机器学习与推荐算法
10+阅读 · 2020年10月13日
KDD2020推荐系统论文聚焦
机器学习与推荐算法
15+阅读 · 2020年6月28日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
已删除
科学网
59+阅读 · 2018年2月9日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员