As an important modeling paradigm in click-through rate (CTR) prediction, the Deep & Cross Network (DCN) and its derivative models have gained widespread recognition primarily due to their success in a trade-off between computational cost and performance. This paradigm employs a cross network to explicitly model feature interactions with linear growth, while leveraging deep neural networks (DNN) to implicitly capture higher-order feature interactions. However, these models still face several key limitations: (1) The performance of existing explicit feature interaction methods lags behind that of implicit DNN, resulting in overall model performance being dominated by the DNN; (2) While these models claim to capture high-order feature interactions, they often overlook potential noise within these interactions; (3) The learning process for different interaction network branches lacks appropriate supervision signals; and (4) The high-order feature interactions captured by these models are often implicit and non-interpretable due to their reliance on DNN. To address the identified limitations, this paper proposes a novel model, called Fusing Cross Network (FCN), along with two sub-networks: Linear Cross Network (LCN) and Exponential Cross Network (ECN). FCN explicitly captures feature interactions with both linear and exponential growth, eliminating the need to rely on implicit DNN. Moreover, we introduce the Self-Mask operation to filter noise layer by layer and reduce the number of parameters in the cross network by half. To effectively train these two cross networks, we propose a simple yet effective loss function called Tri-BCE, which provides tailored supervision signals for each network. We evaluate the effectiveness, efficiency, and interpretability of FCN on six benchmark datasets. Furthermore, by integrating LCN and ECN, FCN achieves a new state-of-the-art performance.


翻译:作为点击率预测领域的重要建模范式,深度交叉网络及其衍生模型因在计算成本与性能之间取得良好平衡而获得广泛认可。该范式采用交叉网络显式建模线性增长的特征交互,同时利用深度神经网络隐式捕获高阶特征交互。然而,这些模型仍存在若干关键局限:(1)现有显式特征交互方法的性能落后于隐式DNN,导致整体模型性能被DNN主导;(2)虽然这些模型声称能捕获高阶特征交互,却常忽略交互中潜在的噪声;(3)不同交互网络分支的学习过程缺乏合适的监督信号;(4)由于依赖DNN,这些模型捕获的高阶特征交互往往具有隐式性与不可解释性。为克服上述局限,本文提出一种称为融合交叉网络的新型模型,其包含两个子网络:线性交叉网络与指数交叉网络。FCN通过线性与指数增长方式显式捕获特征交互,无需依赖隐式DNN。此外,我们引入自掩码操作逐层过滤噪声,并将交叉网络参数量减少一半。为有效训练这两个交叉网络,我们提出一种简单而有效的三元二元交叉熵损失函数,为各网络提供定制化监督信号。我们在六个基准数据集上评估了FCN的有效性、效率与可解释性。实验表明,通过整合LCN与ECN,FCN实现了新的最先进性能。

0
下载
关闭预览

相关内容

【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
Single-Shot Object Detection with Enriched Semantics
统计学习与视觉计算组
14+阅读 · 2018年8月29日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Single-Shot Object Detection with Enriched Semantics
统计学习与视觉计算组
14+阅读 · 2018年8月29日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员