Due to the growing privacy concerns, decentralization emerges rapidly in personalized services, especially recommendation. Also, recent studies have shown that centralized models are vulnerable to poisoning attacks, compromising their integrity. In the context of recommender systems, a typical goal of such poisoning attacks is to promote the adversary's target items by interfering with the training dataset and/or process. Hence, a common practice is to subsume recommender systems under the decentralized federated learning paradigm, which enables all user devices to collaboratively learn a global recommender while retaining all the sensitive data locally. Without exposing the full knowledge of the recommender and entire dataset to end-users, such federated recommendation is widely regarded `safe' towards poisoning attacks. In this paper, we present a systematic approach to backdooring federated recommender systems for targeted item promotion. The core tactic is to take advantage of the inherent popularity bias that commonly exists in data-driven recommenders. As popular items are more likely to appear in the recommendation list, our innovatively designed attack model enables the target item to have the characteristics of popular items in the embedding space. Then, by uploading carefully crafted gradients via a small number of malicious users during the model update, we can effectively increase the exposure rate of a target (unpopular) item in the resulted federated recommender. Evaluations on two real-world datasets show that 1) our attack model significantly boosts the exposure rate of the target item in a stealthy way, without harming the accuracy of the poisoned recommender; and 2) existing defenses are not effective enough, highlighting the need for new defenses against our local model poisoning attacks to federated recommender systems.


翻译:由于隐私问题日益严重,权力下放在个人化服务中迅速出现,特别是建议。此外,最近的研究表明,中央化模型容易中毒袭击,损害其完整性。在建议系统方面,这种中毒袭击的典型目标是通过干扰培训数据集和(或)程序来宣传对手的目标项目。因此,一种常见的做法是在分散化的联邦化学习模式下,将推荐系统归入分散化的联邦化学习模式,使所有用户能够合作学习全球建议,同时保留当地所有敏感数据。在不向最终用户披露推荐者和整个数据集的充分知识的情况下,这种联合化建议被广泛认为“安全”于中毒袭击。在建议系统方面,这种中毒袭击的典型目标是通过干预培训数据集和(或)程序促进对手的目标项目。因此,一种常见的做法是利用分散化的联邦化学习模式中通常存在的内在的受欢迎偏差。由于广性项目更有可能出现在建议列表中,我们创新设计的攻击模型使得目标项目能够在嵌入空间中具有受欢迎物品的特性。随后,通过在不透明化的精确度评估中,通过在精确度评估中上上一个系统,我们精确度更新了目标系统。

2
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
26+阅读 · 2021年4月2日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
111+阅读 · 2020年5月15日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
已删除
将门创投
8+阅读 · 2018年10月31日
Privacy-Preserving News Recommendation Model Learning
Arxiv
92+阅读 · 2020年2月28日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
6+阅读 · 2018年2月7日
VIP会员
相关资讯
已删除
将门创投
8+阅读 · 2018年10月31日
Top
微信扫码咨询专知VIP会员