Recent regulations on the Right to be Forgotten have greatly influenced the way of running a recommender system, because users now have the right to withdraw their private data. Besides simply deleting the target data in the database, unlearning the associated data lineage e.g., the learned personal features and preferences in the model, is also necessary for data withdrawal. Existing unlearning methods are mainly devised for generalized machine learning models in classification tasks. In this paper, we first identify two main disadvantages of directly applying existing unlearning methods in the context of recommendation, i.e., (i) unsatisfactory efficiency for large-scale recommendation models and (ii) destruction of collaboration across users and items. To tackle the above issues, we propose an extra-efficient recommendation unlearning method based on Selective and Collaborative Influence Function (SCIF). Our proposed method can (i) avoid any kind of retraining which is computationally prohibitive for large-scale systems, (ii) further enhance efficiency by selectively updating user embedding and (iii) preserve the collaboration across the remaining users and items. Furthermore, in order to evaluate the unlearning completeness, we define a Membership Inference Oracle (MIO), which can justify whether the unlearned data points were in the training set of the model, i.e., whether a data point was completely unlearned. Extensive experiments on two benchmark datasets demonstrate that our proposed method can not only greatly enhance unlearning efficiency, but also achieve adequate unlearning completeness. More importantly, our proposed method outperforms the state-of-the-art unlearning method regarding comprehensive recommendation metrics.


翻译:最近有关“遗忘权”的法规已经极大地影响了推荐系统的运作,因为用户现在有权撤回他们的私人数据。除了直接在数据库中删除目标数据外,卸载模型中已学习到的个人特征和偏好等相关数据血统也是必要的。现有的卸载方法主要针对分类任务中的广义机器学习模型。在本文中,我们首先确定了在推荐系统中直接应用现有的卸载方法的两个主要缺点,即(i)对大规模推荐模型的效率不理想,(ii)破坏用户和物品之间的协作。为了解决上述问题,我们提出了一种基于选择性协作影响函数(SCIF)的超高效推荐遗忘方法。我们提出的方法可以(i)避免任何类型的重新训练,因为这对大规模系统来说会导致计算成本过高;(ii)通过选择性更新用户嵌入进一步提高效率;(iii)保留剩余用户和物品之间的协作。此外,为了评估遗忘的完整性,我们定义了一个成员推理Oracle(MIO),它可以验证已遗忘的数据点是否在模型的训练集中,即一个数据点是否被完全遗忘。在两个基准数据集上进行的大量实验表明,我们提出的方法不仅可以极大地提高遗忘的效率,还可以实现充分的遗忘完整性。更重要的是,我们提出的方法在涉及综合推荐指标时优于最先进的遗忘方法。

0
下载
关闭预览

相关内容

【ICDM2022教程】多目标优化与推荐,173页ppt
专知会员服务
41+阅读 · 2022年12月24日
【RecSys22教程】多阶段推荐系统的神经重排序,90页ppt
专知会员服务
25+阅读 · 2022年9月30日
近期必读的六篇 ICLR 2021【推荐系统】相关投稿论文
专知会员服务
46+阅读 · 2020年10月13日
【KDD2020-Tutorial】自动推荐系统,Automated Recommendation System
浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
WWW2022 | Recommendation Unlearning
机器学习与推荐算法
0+阅读 · 2022年6月2日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
91+阅读 · 2020年2月28日
VIP会员
相关VIP内容
【ICDM2022教程】多目标优化与推荐,173页ppt
专知会员服务
41+阅读 · 2022年12月24日
【RecSys22教程】多阶段推荐系统的神经重排序,90页ppt
专知会员服务
25+阅读 · 2022年9月30日
近期必读的六篇 ICLR 2021【推荐系统】相关投稿论文
专知会员服务
46+阅读 · 2020年10月13日
【KDD2020-Tutorial】自动推荐系统,Automated Recommendation System
相关基金
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员