Combining graph representation learning with multi-view data (side information) for recommendation is a trend in industry. Most existing methods can be categorized as \emph{multi-view representation fusion}; they first build one graph and then integrate multi-view data into a single compact representation for each node in the graph. However, these methods are raising concerns in both engineering and algorithm aspects: 1) multi-view data are abundant and informative in industry and may exceed the capacity of one single vector, and 2) inductive bias may be introduced as multi-view data are often from different distributions. In this paper, we use a \emph{multi-view representation alignment} approach to address this issue. Particularly, we propose a multi-task multi-view graph representation learning framework (M2GRL) to learn node representations from multi-view graphs for web-scale recommender systems. M2GRL constructs one graph for each single-view data, learns multiple separate representations from multiple graphs, and performs alignment to model cross-view relations. M2GRL chooses a multi-task learning paradigm to learn intra-view representations and cross-view relations jointly. Besides, M2GRL applies homoscedastic uncertainty to adaptively tune the loss weights of tasks during training. We deploy M2GRL at Taobao and train it on 57 billion examples. According to offline metrics and online A/B tests, M2GRL significantly outperforms other state-of-the-art algorithms. Further exploration on diversity recommendation in Taobao shows the effectiveness of utilizing multiple representations produced by \method{}, which we argue is a promising direction for various industrial recommendation tasks of different focus.


翻译:将图形代表与多视图数据(侧面信息)合并学习以用于建议,这是行业的一个趋势。 多数现有方法可以归为 \ emph{ 多视图代表组合} ; 它们首先建立一个图形, 然后将多视图数据纳入图中每个节点的单一缩略表 。 然而, 这些方法在工程和算法两个方面都引起关注:(1) 多视图数据在行业中丰富且信息丰富,可能超过单一矢量的能力, 和(2) 可能引入感知偏差, 因为多视图数据往往是来自不同分布的。 在本文中, 我们使用一个多任务学习模式, 来学习多任务多任务多任务多任务多任务多任务多任务组合代表(多视图代表组合组合组合组合组合组合组合组合组合组合组合组合组合组合组合组合) 。 M2 GRL 将多任务多任务组合组合组合组合组合组合(多任务组合组合组合组合组合组合组合) 将多任务(多任务组合组合组合组合组合组合) 用于OTO2 和跨重度测试(OGR) 中, 将多任务在O- L 测试中, 将多任务中, 将OL 演示中, 演示中, 将多任务的缩缩缩缩缩缩缩缩缩缩图中, 将其他任务应用中, 和跨任务应用到 RB 演示中, 将O- L 的缩缩缩缩缩缩缩缩缩缩缩缩缩缩图。

8
下载
关闭预览

相关内容

LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Knowledge Representation Learning: A Quantitative Review
Arxiv
8+阅读 · 2018年2月23日
VIP会员
相关VIP内容
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员