Modern online advertising systems inevitably rely on personalization methods, such as click-through rate (CTR) prediction. Recent progress in CTR prediction enjoys the rich representation capabilities of deep learning and achieves great success in large-scale industrial applications. However, these methods can suffer from lack of exploration. Another line of prior work addresses the exploration-exploitation trade-off problem with contextual bandit methods, which are less studied in the industry recently due to the difficulty in extending their flexibility with deep models. In this paper, we propose a novel Deep Uncertainty-Aware Learning (DUAL) method to learn deep CTR models based on Gaussian processes, which can provide efficient uncertainty estimations along with the CTR predictions while maintaining the flexibility of deep neural networks. By linking the ability to estimate predictive uncertainties of DUAL to well-known bandit algorithms, we further present DUAL-based Ad-ranking strategies to boost up long-term utilities such as the social welfare in advertising systems. Experimental results on several public datasets demonstrate the effectiveness of our methods. Remarkably, an online A/B test deployed in the Alibaba display advertising platform shows an $8.2\%$ social welfare improvement and an $8.0\%$ revenue lift.


翻译:现代在线广告系统不可避免地依赖个人化方法,例如点击率(CTR)预测。CTR预测的近期进展具有深层学习的丰富代表性能力,在大规模工业应用中取得了巨大成功。然而,这些方法可能缺乏勘探。先前的另一项工作涉及背景强盗方法的勘探-开发权交易问题,由于很难以深层模型扩大其灵活性,最近行业对此研究较少。在本文中,我们提议了一种新的深层不确定性-软件学习方法(DUAL),以学习基于高山进程的深层CTR模型,这可以提供高效的不确定性估计,同时提供CTR预测,同时保持深度神经网络的灵活性。通过将DUAL预测不确定性的能力与众所周知的强盗算法联系起来,我们进一步提出以个人为基础的排名战略,以提升长期公用事业,如广告系统的社会福利。若干公共数据集的实验结果显示了我们的方法的有效性。值得注意的是,在Alibaba上安装的在线A/B测试,以美元显示社会收入8美元。

6
下载
关闭预览

相关内容

Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
Learning Recommender Systems from Multi-Behavior Data
Arxiv
7+阅读 · 2018年11月29日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关VIP内容
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
Learning Recommender Systems from Multi-Behavior Data
Arxiv
7+阅读 · 2018年11月29日
Arxiv
3+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员