Contrastive learning has moved the state of the art for many tasks in computer vision and information retrieval in recent years. This poster is the first work that applies supervised contrastive learning to the task of product matching in e-commerce using product offers from different e-shops. More specifically, we employ a supervised contrastive learning technique to pre-train a Transformer encoder which is afterward fine-tuned for the matching task using pair-wise training data. We further propose a source-aware sampling strategy that enables contrastive learning to be applied for use cases in which the training data does not contain product identifiers. We show that applying supervised contrastive pre-training in combination with source-aware sampling significantly improves the state-of-the-art performance on several widely used benchmarks: For Abt-Buy, we reach an F1-score of 94.29 (+3.24 compared to the previous state-of-the-art), for Amazon-Google 79.28 (+ 3.7). For WDC Computers datasets, we reach improvements between +0.8 and +8.84 in F1-score depending on the training set size. Further experiments with data augmentation and self-supervised contrastive pre-training show that the former can be helpful for smaller training sets while the latter leads to a significant decline in performance due to inherent label noise. We thus conclude that contrastive pre-training has a high potential for product matching use cases in which explicit supervision is available.


翻译:近些年来,在计算机视觉和信息检索的许多任务方面,这一招贴画是首次将监督对比学习应用到利用不同电子商店的产品报价进行电子商务产品匹配的任务中。更具体地说,我们采用了监督对比学习技术,对使用双向培训数据完成匹配任务后经过微调的变换器编码器进行预培训。我们进一步提议了一种源觉抽样战略,使对比学习能够用于培训数据不含产品标识的案例中。我们显示,在与源觉抽样结合的情况下,对电子商业中产品匹配的任务采用监督对比学习。我们采用监督对比学习技术,极大地改进了几个广泛使用的基准上的最新产品业绩:对于Abt-Buy,我们达到F1-核心的94.29分数(+3.24),对匹配前期培训数据进行了微调,对亚马逊-古格尔79.28分(+3.7)。对于WDC计算机的直线性数据集来说,我们可改进+0.8和+8.84分校前的比对F1核心的比值,这可大大改进,同时根据培训的内在性要求进行大幅的自我升级,对准性测试,对准后,对准后,对准前的成绩进行进一步进行自我升级,对准,对准,对准,对准后对准后对准后对准后对准后进行自我调整后对准,对准后对准后,对准后制制制制成为后制成成为后制,对准后制,对准后将显示制,对准后制,对准后制,对准后制,对准后制,对准后制成成为后制成为后制成为后制,对准后制,对准后制成为后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制成为后制成,对准后制成为后制成为后制成为后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制,对准后制

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年6月16日
Max-Margin Contrastive Learning
Arxiv
17+阅读 · 2021年12月21日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
10+阅读 · 2017年12月29日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
IEEE TII Call For Papers
CCF多媒体专委会
3+阅读 · 2022年3月24日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
相关论文
Arxiv
0+阅读 · 2022年6月16日
Max-Margin Contrastive Learning
Arxiv
17+阅读 · 2021年12月21日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
10+阅读 · 2017年12月29日
Top
微信扫码咨询专知VIP会员