©作者 | 王哲
单位 | 阿里妈妈展示广告算法专家
研究方向 | 广告/推荐/深度学习/NLP
粗排:按照 ecpm=pctr*init_bid 的方式进行排序,粗排使用的是广告主的原始 bid,但是精排会基于多目标模型打分(点击率/收藏加购率/成交率模型)以及策略调价模块(基于广告主和平台诉求对广告出价进行调整)对广告主出价进行调整,因为在 bid 上和精排存在 gap,同时粗排在 pctr 模型能力上和精排也存在差距。
精排阶段的排序结果,是通过用户反馈数据->模型训练->多目标模型打分->策略调价这样一条复杂路径处理之后得到的。是否可以跳过精排内部复杂的处理过程,以排序结果本身为学习样本和目标,直接进行端到端的学习?这种精排加工处理后的数据,和用户反馈数据相比,学习难度可能更低。
提升前链路模块和精排模型在自身打分空间上的打分一致性。
解决精排的样本选择偏差问题。
间接目标:如 RPM(RPM=CTR*Bid),GMV(GMV=CTCVR*Price)等。这类目标的排序公式,往往存在一个或多个加权因子,难以直接用线上的反馈数据(点击,转化等)表示。这个给召回建模带来了很大的困难。
unpv 样本上的 distill:这里将精排未展现样本以 distill 方式用精排 rankpctr 对向量模型训练进行指导,通过这种方式来提升召回模型和精排模型在召回空间上的打分一致性,从而缓解召回阶段的 SSB 问题,同时训练过程中要通过 stop_gradient 的方式来屏蔽蒸馏 loss 对精排训练的影响:
可以显式地对齐后链路的各种间接目标,可解释性强。
精排的样本选择偏差问题。
后链路升级后,通过精排参竞日志样本回流即可实现自行升级,维护成本较低。
通过实时样本回流的方式,自动跟随后链路进行升级,极大的降低了维护迭代成本。
专注于最终系统目标对齐和优化。
以集合选择技术为主。
专注于客户侧指标优化,如新广告冷启。
以精度值预估技术为主。
面向任意目标的全库向量召回技术 PDM:CTR+1.5% , RPM+2%
粗排全空间 ESDM 模型:CTR+3% , RPM+1.5%
以学习后链路的序为目标的端到端粗排 LBDM 模型:CTR+8% , RPM+5%