【WWW2020-新加坡国立大学】知识图谱强化负采样的推荐系统,Reinforced Negative Sampling

2020 年 3 月 14 日 专知


正确处理丢失的数据是推荐中的一个基本挑战。目前的工作大多是对未观测数据进行负采样,为推荐模型的训练提供负信号。然而,现有的负采样策略,无论是静态的还是自适应的,都不足以产生高质量的负采样——既能提供模型训练的信息,又能反映用户的真实需求。在这项工作中,我们假设项目知识图谱(KG),它提供了丰富的项目和KG实体之间的关系,可以用来推断信息和事实的阴性样本。为此,我们提出了一种新的负采样模型——知识图谱策略网络(KGPolicy),它作为一种强化学习代理来探索高质量的负样本。具体来说,通过我们设计的探索操作,它从目标的正交互中导航,自适应地接收到知识感知的负信号,最终产生一个潜在的负项来训练推荐器。我们在一个配备了KGPolicy的矩阵分解(MF)模型上进行了测试,它在最先进的采样方法(如DNS和IRGAN)和kg增强的推荐模型(如KGAT)上都取得了显著的改进。进一步从不同的角度进行分析,为知识感知抽样提供了思路。我们通过这个https URL发布代码和数据集。

https://www.zhuanzhi.ai/paper/97166b05ea7746278248026677b49ddc



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“RNS” 就可以获取【WWW2020-新加坡国立大学】知识图谱强化负采样的推荐系统,Reinforced Negative Sampling》论文专知下载链接


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
22

相关内容

自然语言处理领域中,判断两个单词是不是一对上下文词(context)与目标词(target),如果是一对,则是正样本,如果不是一对,则是负样本。采样得到一个上下文词和一个目标词,生成一个正样本(positive example),生成一个负样本(negative example),则是用与正样本相同的上下文词,再在字典中随机选择一个单词,这就是负采样(negative sampling)。
近期必读的5篇顶会WWW2020【推荐系统】相关论文-Part2
专知会员服务
69+阅读 · 2020年4月7日
【WWW2020-UIUC】为新闻故事生成具有代表性的标题
专知会员服务
26+阅读 · 2020年3月18日
【综述】生成式对抗网络GAN最新进展综述
专知
57+阅读 · 2019年6月5日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
Arxiv
20+阅读 · 2019年11月23日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
VIP会员
相关VIP内容
近期必读的5篇顶会WWW2020【推荐系统】相关论文-Part2
专知会员服务
69+阅读 · 2020年4月7日
【WWW2020-UIUC】为新闻故事生成具有代表性的标题
专知会员服务
26+阅读 · 2020年3月18日
Top
微信扫码咨询专知VIP会员