CIKM21 | AutoHERI: 基于层次表示自动聚合的 CVR 预估模型

2021 年 12 月 12 日 图与推荐
本文主要介绍阿里妈妈大外投广告算法团队在 CVR 预估模型与多任务学习方法上的一些探索。我们提出了一种基于 层次表示自动聚合的 AutoHERI 模型(Automated Hierarchical Representation Integration) ,并在多个外投业务上落地应用。该项工作论文已发表在 CIKM 2021 ,欢迎交流讨论。

论文下载:

https://dl.acm.org/doi/10.1145/3459637.3482061

▐ 

转化率预估模型(post-click conversion rate estimation,即 CVR 模型)旨在预估用户在发生点击行为后会继续发生转化行为的概率,是推荐和广告系统中的重要模块,在排序、智能出价等功能中发挥着关键作用。在阿里妈妈外投广告业务中,广告在站外媒体展现给用户,用户点击广告后会唤端到淘宝 app 来继续发生加购、成交等深度行为。广告主通常会追求后链路效果优化(例如支付成本),因此 CVR 预估模型的优化一直是外投广告算法的迭代重点。
图 1:外投广告场景中的用户行为漏斗示例
在推荐与广告系统中,用户行为漏斗通常由 "展现-点击-...-加购-转化-复购-..." 等多个阶段构成,越靠后的阶段行为数越少。转化行为处在漏斗的末端,因此 CVR 模型的学习往往面临着正样本过少的数据稀疏问题。外投广告场景中,用户往往是逛与玩的心智,购买意愿相较于淘宝 app 站内广告场景要相对低,因此用户的转化行为往往更加稀疏,使得 CVR 模型学习有着更大的难度。此外,由于只有点击样本可以收集到 post-click 的转化 label,CVR 模型的训练通常使用点击样本集合,而在线服务时 CVR 模型需要对参竞空间的流量进行预测,因此存在着训练空间与预测空间不一致的样本选择偏差问题。
建模 CVR 预估的典型做法是将样本量更加丰富的前链路预估任务(如 CTR 预估)与之进行联合学习,近年来有许多精彩工作,包括 ESMM、DBMTL、GMSL、ESM2、Multi-DR、AITM [1-6] 等模型。在此基础上,我们着眼于更加精细地刻画全链路各预估任务之间的关联来提升对后链路行为的预估效果。从用户行为漏斗来看,各个预估任务之间存在级联式的层次关系:以最通用的 "展现-点击-转化" 漏斗为例,CTR、CVR 预估这两个任务可视作是前级、后级任务,形成了级联;类似地,外投广告场景中的 "展现-点击-唤端-转化" 行为漏斗中,也可以推广得到各预估任务之间的层次关系,例如 CTR 预估和唤端率预估是 CVR 预估的前级任务。为了利用任务间的层次关系来提升后链路行为预估模型的效果,我们希望建立一种能够将多个级联任务的建模过程显式联系起来的方法,探索如何有效地把前级任务所学到的较浅层转化信息聚合到后级任务的建模之中。同时,考虑到外投广告的业务场景众多,在单一场景有效的信息聚合方式未必适用于其他场景,因此我们希望所建立的方法在接入不同业务场景时可以高效地获取适应于特定场景的信息聚合模式。
基于上述动机,我们提出了基于层次表示自动聚合的 AutoHERI 模型 (Automated Hierarchical Representation Integration),通过 AutoML 的思想来建模各任务特征表示学习过程的层次关联以提升后链路预估任务的表示学习。AutoHERI 模型的核心是通过 one-shot 架构搜索技术来高效地自动学习各任务之间特征表示的聚合模式,从而具备了接入新场景时的适应能力。在外投广告业务亿级数据集上的实验结果表明 AutoHERI 模型的 CVR 预估性能显著优于此前的多个方法。目前,AutoHERI 模型已在多个外投业务上落地应用。

▐ 方法

不失一般性,这里先通过 CTR、CVR 两任务联合建模的场景来介绍所提出的层次表示自动聚合方法,而后再介绍如何将其推广到更一般的多任务建模场景中。

图 2 (a):AutoHERI 模型整体结构,考虑了多个预估任务之间级联关系的层次聚合;图 2 (b) :平行聚合,未考虑任务间的关系

基础网络结构

联合建模 CTR、CVR 两个任务时,AutoHERI 模型的基础网络结构为典型的先共享 embedding 层、再接入两个多层 DNN 网络分别建模 CTR/CVR 的形式,如图 2 (a) 所示。通过与数据量更充足的 CTR 任务共享 embedding 层,一定程度上缓解 CVR 任务数据稀疏带来的 embedding 训练不充分的问题。而后,两个多层 DNN 网络分别用于学习 CTR、CVR 任务的向量表示,最后接入 logistic 函数来给出模型预估的点击概率 以及预估的点击后转化概率

层次表示聚合

在用户行为漏斗中,各预估任务之间形成了级联式的层次关系。为了充分利用前级任务(i.e., CTR 预估)学到的表示来提升后级任务(i.e., CVR 预估)的学习效果,AutoHERI 模型将 CTR 网络的中间层输出向量显式地聚合到 CVR 网络的表示学习过程中,建模多任务之间的级联关系。我们将这种把前级任务的表示融入到后级任务的做法称为层次表示聚合。
如图 2 (a) 右侧所示,为实现层次表示聚合,我们在两个 DNN 网络之间添加 layer-wise 的聚合连边,将 CTR 网络的中间层输出向量连接到 CVR 网络的中间层输入,希望找到最优的连边组合来提升 CVR 预估效果。这种聚合连边方式允许从前级任务网络的每一层连接到后级任务网络的每一层。具体地,将两个 DNN 网络的层数分别记作 ,那么全部候选连边共有 个,每条连边为二值变量:取值为 1 表示有这条连边,取值为 0 表示没有这条边,层次表示聚合的目标是找出最优连边组合使 CVR 预估这一后级任务的性能最佳。将 CTR 网络的第 层输出向量记作 、CVR 网络的第 层输出向量记作 ,当引入从 CTR 网络的各层向 CVR 网络第 层的连边 后, 通过如下聚合公式进行计算:

其中, 是 CVR 网络第 层的参数; 函数是一个聚合算子,用于将 CTR 网络的各层向量  进行聚合来输出最终的向量表示 。这里我们实现 的方式是先将各个向量拼接起来 ,而后将其进行线性映射来得到

作为对比,图2(b) 则给出了一种不考虑各预估任务之间层次性的平行表示聚合方式,CTR 网络、CVR 网络可以互相连接到对方的层。为避免成环导致前向传播过程无法计算,平行聚合方式仅允许一个网络的低层(靠近输入的层)向另一网络的高层(靠近输出的层)进行连接,而不能像 AutoHERI 的层次聚合方式那样实现从前级任务的高层聚合至后级任务的低层的灵活连接。
在层次聚合的情形下,可能的连边组合共有 种。AutoHERI 利用神经网络架构搜索来学习最优的连边组合。
讨论:相比于人工设计聚合模式的 DBMTL [2]、GMSL [3] 模型,我们提出的 AutoHERI 模型基于 AutoML 思想来自动学习多任务表示之间的最优聚合模式,避免了反复试错来确定模型结构的过程,具备接入新场景时高效建模聚合模式的能力。
图3:左侧为 DBMTL 模型[2]、右侧为 GMSL 模型[3],红色框内为人工设计的多个预估任务之间的聚合模式。其中,DBMTL 模型在输出层建立了各预估任务的序列依赖,GMSL 模型则通过 GRU 单元建立序列依赖。

基于 one-shot 搜索的自动聚合

在一个业务场景下搜索得到的网络结构往往在其他场景不是最优的,因此面临新场景时比较合适的做法是重新搜索最优连边组合。神经网络架构搜索的训练代价往往较高,如果每当接入一个场景就重新搜索会带来较为严重的效率问题。为降低接入新场景时的搜索代价,我们通过 one-shot 架构搜索技术 [7-9] 来提升搜索效率,将二值连边的优化问题转为连边概率的优化,从而可以直接利用梯度下降求解出连边。
具体地,基于 one-shot 搜索的 AutoHERI 模型将每个二值连接 松弛到连续值 (伯努利分布的期望),并将聚合公式中的 替换为 。进而,AutoHERI 模型可以通过梯度下降来联合优化:1)网络参数 ,含 embedding、DNN、聚合算子的线性映射参数;以及 2)连边概率值 。对于一条展现样本,记 分别为点击 label 与 post-view 的转化 label,我们参考 ESMM 模型 [1] 所提出的全空间训练方式,将目标函数定义为优化 CTR、CTCVR 这两个预估任务的交叉熵损失:
其中 是超参数。注意到当样本是点击未转化时,其是 CTR 预估任务的正样本、CTCVR 预估任务的负样本,为避免梯度冲突,我们可对 CTCVR 的损失函数执行 stop gradient 操作使其梯度不会回传到 CTR 网络。
AutoHERI 模型的训练过程基于双层优化(bi-level optimization),联合训练网络参数和连边概率:
具体而言,在每个 iteration 中,首先更新网络参数、同时 fix 连边概率;而后 fix 网络参数、更新连边概率。需要注意的是这两次更新需要使用不同的数据。为了令连边概率能够更好地收敛,我们参考 [9] 引入了一个熵正则项

扩展到更多建模任务

在许多外投广告场景中,广告主有同时优化多个目标的诉求,例如同时优化唤端成本和支付成本。这里我们以 "展现-点击-唤端-转化" 这一用户行为漏斗为例,介绍当预估任务超过两个时 AutoHERI 的建模方式。
图 4:建模超过两个任务时,AutoHERI 模型的结构。
这里涉及三个预估任务:点击率、点击后唤端率、唤端后转化率。如图 4 所示,此时 AutoHERI 模型的基础网络结构包含共享 embedding 层以及三个 DNN 网络来分别预估上述三个概率。为了建模这三个预估任务之间的层次性,候选连边有三组:1)从点击率网络连接到唤端率网络;2)从唤端率网络连接到转化率网络;以及 3)从点击率网络连接到转化率网络。对于后级任务的网络(此处为唤端率网络和转化率网络),聚合公式可由两个预估任务情形推广得到。在实践中,我们实验发现将相邻两个任务的网络进行表示聚合即可获得不错的效果,上述的第三组连边并不是必要的。

▐ 实验验证

我们在阿里妈妈电商外投广告业务数据集以及公开数据集上验证 AutoHERI 模型的效果。我们首先对比 AutoHERI 模型与多个基线模型的 CVR 预估效果,而后从消融实验和训练效率角度进一步分析。
实验数据方面,我们在两个数据集上进行离线实验:第一个是公开数据集 Ali-CCP,展现样本 8000 万+,每个样本有点击、转化两个标签;第二个是电商外投业务数据集,展现样本 4 亿,每个样本有点击、唤端、转化三个标签。评价指标方面,我们汇报了 CVR、CTCVR 预估任务上的 AUC 以及 NLL。其中,为了公平比较各个 CVR 模型,在评价它们的 CTCVR 预估性能时使用统一的 CTR 模型给出点击率预估值。
表 1:两个数据集上的 CVR 预估效果
表 2:消融实验与训练效率实验
表1 汇报了两个数据集上的 AUC、NLL 评价指标。可以看出,当模型显式建模了多任务之间关联后,预估效果均有提升。AutoHERI 模型通过自动学习多任务表示的最优聚合模式,在两个数据集上都取得了最优的 CVR 预估效果。为了考察 AutoHERI 模型的效果提升来源,表2 给出了消融实验结果。可以看出,层次聚合模式相比平行聚合模式有较明显的提升,并且 one-shot 架构搜索相比于传统的基于演化的搜索性能持平。我们进一步考察 AutoHERI 模型的训练效率,在表2 的最后一列给出了各模型的训练时间,可以发现使用 one-shot 搜索时 AutoHERI 模型的训练时间显著降低,具备接入新场景时高效获取信息聚合模式的能力,较好地平衡了效果与效率。
图 5:自动搜索得到的聚合连边
上图给出了在外投业务数据集上搜索出来的结构,较难通过人工反复试错的方式设计出来。我们进一步在用增外投场景进行在线实验,线上效果正向:转化率 +4.9%、支付成本 -5.8%,已经推全量。目前,AutoHERI 模型的效果目前已在多个外投业务得到验证。

▐ 总结

为了充分利用用户行为漏斗中各预估任务之间的级联关系来提升 CVR 预估性能,我们提出了基于层次表示自动聚合的 AutoHERI 模型,核心是通过 one-shot 架构搜索技术来高效地自动学习各任务之间特征表示的聚合模式,具备接入新业务场景时的适应能力。我们的工作是对自动学习级联任务之间的信息聚合模式的初步探索,还有进一步的优化空间。例如,在目前的 AutoHERI 模型中,聚合算子的设计是较为简单的拼接再映射的操作,还有更多尝试有待挖掘;此外,将 AutoML 思想应用于多任务模型中除表示聚合之外的其他模块,也是值得探索的方向。

参考文献

[1] Xiao Ma, Liqin Zhao, GuanHuang, Zhi Wang, Zelin Hu, Xiaoqiang Zhu, and Kun Gai. 2018. Entire space multi-task model: An effective approach for estimating post-click conversion rate. In Proceedings of SIGIR.

[2] Qi Wang, Zhihui Ji, Huasheng Liu, and Binqiang Zhao. 2019. Deep Bayesian Multi-Target Learning for Recommender Systems. arXiv preprint arXiv:1902.09154 (2019).

[3] GMSL: https://mp.weixin.qq.com/s/b0mHh-cTeY6LtZ88BlAleQ

[4] Hong Wen, Jing Zhang, Yuan Wang, Fuyu Lv, Wentian Bao, Quan Lin, and Keping Yang. 2020. Entire space multi-task modeling via post-click behavior decomposition for conversion rate prediction. In Proceedings of SIGIR.

[5] Wenhao Zhang, Wentian Bao, Xiao-Yang Liu, Keping Yang, Quan Lin, Hong Wen, and Ramin Ramezani. 2020. Large-scale Causal Approaches to Debiasing Post-click Conversion Rate Estimation with Multi-task Learning. In Proceedings of WWW.

[6] Dongbo Xi, Zhen Chen, Peng Yan, Yinger Zhang, Yongchun Zhu, Fuzhen Zhuang, and Yu Chen. 2021. Modeling the Sequential Dependence among Audience Multi- step Conversions with Multi-task Learning in Targeted Display Advertising. In Proceedings of KDD.
[7] Hanxiao Liu, Karen Simonyan, and Yiming Yang. 2019. DARTS: Differentiable architecture search. In Proceedings of ICLR.
[8] Sirui Xie, Hehui Zheng, Chunxiao Liu, and Liang Lin. 2019. SNAS: Stochastic neural architecture search. In Proceedings of ICLR.
[9] Yuan Gao, Haoping Bai, Zequn Jie, Jiayi Ma, KuiJia, and Wei Liu. 2020. MTL-NAS: Task-agnostic neural architecture search towards general-purpose multi-task learning. In Proceedings of CVPR.

关于我们

阿里妈妈大外投广告算法团队 是阿里集团媒体推广核心团队,依托于集团庞大而真实的营销场景,以 AI 技术驱动实现客户商品营销,并承担集团 App 用户增长等业务需求。我们持续探索人工智能,联邦学习,深度学习,强化学习,知识图谱,图学习等前沿技术在外投广告和用增方面的落地应用。在创造业务价值的同时,团队近1年也在 CIKM、SIGIR、KDD 等领域知名会议上发表过多篇论文,热忱欢迎对广告算法、推荐系统、NLP 等方向感兴趣的同学加入我们。

投递简历邮箱:

alimama_tech@service.alibaba.com

END

登录查看更多
0

相关内容

AAAI 2022 | 面向图数据的对抗鲁棒性研究
专知会员服务
20+阅读 · 2022年1月4日
【KDD2021】双重图强化神经推荐模型
专知会员服务
12+阅读 · 2021年11月10日
专知会员服务
24+阅读 · 2021年9月19日
专知会员服务
35+阅读 · 2021年9月15日
专知会员服务
37+阅读 · 2021年5月28日
专知会员服务
20+阅读 · 2021年4月15日
专知会员服务
87+阅读 · 2020年1月20日
CIKM21 | 淘宝多场景推荐排序模型ZEUS
图与推荐
0+阅读 · 2022年1月18日
AAAI21 | 基于块(Block)建模理论图神经网络
图与推荐
0+阅读 · 2021年12月28日
CIKM21 | 图模型在广告检索(Ad Retrieval)中的应用
图与推荐
0+阅读 · 2021年12月16日
【KDD2021】双重图强化神经推荐模型
专知
0+阅读 · 2021年11月10日
KDD21 | 一种使用真负样本的在线延迟反馈建模
图与推荐
0+阅读 · 2021年9月27日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
12+阅读 · 2020年12月10日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关VIP内容
AAAI 2022 | 面向图数据的对抗鲁棒性研究
专知会员服务
20+阅读 · 2022年1月4日
【KDD2021】双重图强化神经推荐模型
专知会员服务
12+阅读 · 2021年11月10日
专知会员服务
24+阅读 · 2021年9月19日
专知会员服务
35+阅读 · 2021年9月15日
专知会员服务
37+阅读 · 2021年5月28日
专知会员服务
20+阅读 · 2021年4月15日
专知会员服务
87+阅读 · 2020年1月20日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员