Post-click Conversion Rate (CVR) prediction task plays an essential role in industrial applications, such as recommendation and advertising. Conventional CVR methods typically suffer from the data sparsity problem as they rely only on samples where the user has clicked. To address this problem, researchers have introduced the method of multi-task learning, which utilizes non-clicked samples and shares feature representations of the Click-Through Rate (CTR) task with the CVR task. However, it should be noted that the CVR and CTR tasks are fundamentally different and may even be contradictory. Therefore, introducing a large amount of CTR information without distinction may drown out valuable information related to CVR. This phenomenon is called the curse of knowledge problem in this paper. To tackle this issue, we argue that a trade-off should be achieved between the introduction of large amounts of auxiliary information and the protection of valuable information related to CVR. Hence, we propose a Click-aware Structure Transfer model with sample Weight Assignment, abbreviated as CSTWA. It pays more attention to the latent structure information, which can filter the input information that is related to CVR, instead of directly sharing feature representations. Meanwhile, to capture the representation conflict between CTR and CVR, we calibrate the representation layer and reweight the discriminant layer to excavate the click bias information from the CTR tower. Moreover, it incorporates a sample weight assignment algorithm biased towards CVR modeling, to make the knowledge from CTR would not mislead the CVR. Extensive experiments on industrial and public datasets have demonstrated that CSTWA significantly outperforms widely used and competitive models.


翻译:后点击转化率(CVR)预测任务在推荐和广告等工业应用中扮演着重要角色。传统的CVR方法通常遭受数据稀疏问题,因为它们仅依赖于用户点击的样本。为了解决这个问题,研究人员引入了多任务学习的方法,利用未点击的样本并共享 Click-Through Rate(CTR)任务的特征表示与CVR任务。然而,需要注意的是,CVR和CTR任务在根本上是不同的,甚至可能是相互矛盾的。因此,引入大量的CTR信息而不加区分地可能会淹没与CVR有关的有价值信息。本文中称这种现象为知识诅咒问题。为了解决这个问题,我们认为应该在引入大量辅助信息和保护与CVR有关的有价值信息之间达到平衡。因此,我们提出了一种点击感知结构转移模型,样本权重分配算法,缩写为CSTWA。它更加关注潜在结构信息,它可以过滤与CVR相关的输入信息,而不是直接分享特征表示。同时,为了捕捉CTR和CVR之间的表示冲突,我们校准表示层,并重新加权判别层,以挖掘来自CTR塔的点击偏差信息。此外,它结合了一个偏向于CVR建模的样本权重分配算法,使来自CTR的知识不会误导CVR。在工业和公共数据集上的广泛实验表明,CSTWA显著优于广泛使用的具有竞争力的模型。

0
下载
关闭预览

相关内容

浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
SIGIR2022 | ESCM^2: 升级版全空间多任务转化率预估
机器学习与推荐算法
1+阅读 · 2022年6月10日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2023年5月24日
Arxiv
0+阅读 · 2023年5月24日
VIP会员
相关VIP内容
相关资讯
浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
SIGIR2022 | ESCM^2: 升级版全空间多任务转化率预估
机器学习与推荐算法
1+阅读 · 2022年6月10日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员