©PaperWeekly 原创 · 作者 | 杨雨豪
单位 | 香港大学
研究方向 | 推荐系统
论文来源:
https://arxiv.org/abs/2205.00976
代码链接:
https://github.com/yuh-yang/KGCL-SIGIR22
2). 与受知识图谱语义偏差影响更大的物品相关的用户-物品交互将更少地被包含到用户-物品图的对比学习过程中。
实验结果
3.1 整体模型效果
我们从以下几个 research line 中选取了多样性的对比模型:传统 CF 模型、神经 CF 模型、图 CF 模型、基于 Embedding 的 KG 推荐模型、基于路径的 KG 推荐模型、基于图的混合 KG 推荐模型和自监督的推荐模型。从下表可以发现,KGCL 在三个数据集上相比基线模型均取得了显著更好的性能。
3.2 消融实验
我们分别对 KGCL 架构中的 KG 图增强部分(KGA)和 KG 对比学习部分(KGC)分别进行消融实验,来探究这两个关键部分对于模型性能的影响。从下表可以看出,两个模块对于模型的学习均有明显的促进作用。
3.3 模型在稀疏数据上的优势
KGCL 既引入了外部知识来增强物品的表征学习,又在用户-物品交互图上采用了知识指导的对比学习范式,因此我们期望提出的 KGCL 对于用户-物品交互的稀疏性问题有较好的缓解效应。我们首先将物品按照曝光的稀疏度分成五个组,并在与它们相关的用户交互数据上进行实验。下表的实验结果显示,KGCL 在稀疏的物品组(例如 0-2)上,相比最先进的一些基线模型都有较大的提升。
进一步地,我们为数据集筛选出冷启动用户,这些用户的交互数均小于某个数据集特定的阈值(例如,在Yelp2018 上是 20)。通过对这些冷启动用户生成推荐列表进行实验,我们发现 KGCL 在建模冷启动用户任务上也有明显的提升:
3.4 模型在缓解KG噪音上的优势
为了验证 KG 上对比学习以及知识指导的对比学习针对 KG 的噪声和长尾问题带来的优势,我们首先为 KG 随机加入 10% 的噪声,并比较 KGCL 与最新的 KG 推荐方法在噪声 KG 上的性能:
从上表的实验结果可以发现,KGCL 在面对加入 KG 噪声的场景,只产生了 0.58% 的性能下降,远远好于 MVIN、KGIN 和 KGAT。这说明了 KGCL 的先进性。进一步地,我们筛选出连接到 KG 中长尾实体的物品,并对这些用户-物品交互进行实验。
上图实验结果说明了 KGCL 在抑制 KG 的长尾问题上相比于其它推荐模型的优势。
总结
在这项工作中,我们提出的 KGCL 框架进行了初步尝试以探索通过知识图谱上的对比学习对知识图谱的噪声和长尾分布问题进行抑制。进一步地,通过知识指导的图数据增强,我们得以估计受到 KG 问题影响而产生语义偏移的物品,并将其作为辅助性的自监督信号,使得语义更明确的用户-物品交互得以在对比学习中为梯度产生更大的贡献。我们希望这项工作为 KG 增强的推荐系统开辟了新的探索方向。
参考文献
[1] Jiancan Wu, Xiang Wang, Fuli Feng, Xiangnan He, Liang Chen, et al. 2021. Self-supervised graph learning for recommendation. In SIGIR. 726–735.
[2] Xiangnan He, Kuan Deng, Xiang Wang, Yan Li, Yongdong Zhang, and Meng Wang. 2020. Lightgcn: Simplifying and powering graph convolution network for recommendation. In SIGIR. 639–648.
[3] Hongwei Wang,Fuzheng Zhang,Jialin Wang,Miao Zhao,Wenjie Li,Xing Xie, and Minyi Guo. 2018. Ripplenet: Propagating user preferences on the knowledge graph for recommender systems. In CIKM. 417–426.
[4] Steffen Rendle, Christoph Freudenthaler, Zeno Gantner, and Lars Schmidt-Thieme. 2009. BPR: Bayesian Personalized Ranking from Implicit Feedback. In UAI. 452–461.
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧