Online advertising revenues account for an increasing share of publishers' revenue streams, especially for small and medium-sized publishers who depend on the advertisement networks of tech companies such as Google and Facebook. Thus publishers may benefit significantly from accurate online advertising revenue forecasts to better manage their website monetization strategies. However, publishers who only have access to their own revenue data lack a holistic view of the total ad market of publishers, which in turn limits their ability to generate insights into their own future online advertising revenues. To address this business issue, we leverage a proprietary database encompassing Google Adsense revenues from a large collection of publishers in diverse areas. We adopt the Temporal Fusion Transformer (TFT) model, a novel attention-based architecture to predict publishers' advertising revenues. We leverage multiple covariates, including not only the publisher's own characteristics but also other publishers' advertising revenues. Our prediction results outperform several benchmark deep-learning time-series forecast models over multiple time horizons. Moreover, we interpret the results by analyzing variable importance weights to identify significant features and self-attention weights to reveal persistent temporal patterns.


翻译:网上广告收入在出版商收入流中所占的份额越来越大,特别是对于依赖谷歌和脸书等技术公司广告网络的中小型出版商而言。因此,出版商可以从准确的网上广告收入预测中大大获益,以便更好地管理自己的网站货币化战略。然而,只有自己获得收入数据的出版商缺乏对出版商整个广告市场的整体了解,这反过来又限制了他们了解自己未来在线广告收入的能力。为了解决这一商业问题,我们利用一个专有数据库,包括Google Adsense从不同领域大量出版商收集的收入。我们采用了Tymoral Fusion 变换(TFT)模式,这是一个新的关注型架构,用以预测出版商的广告收入。我们利用多种共变式,不仅包括出版商本身的特点,也包括其他出版商的广告收入。我们的预测结果超越了多个时间范围内的深学习时间序列预测模式。此外,我们通过分析可变重要性加权值和自我注意权重来解释结果,以揭示持续的时间模式。

0
下载
关闭预览

相关内容

【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Arxiv
5+阅读 · 2021年4月21日
Arxiv
35+阅读 · 2021年1月27日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
相关论文
Arxiv
5+阅读 · 2021年4月21日
Arxiv
35+阅读 · 2021年1月27日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Top
微信扫码咨询专知VIP会员