The use of contrastive loss for representation learning has become prominent in computer vision, and it is now getting attention in Natural Language Processing (NLP). Here, we explore the idea of using a batch-softmax contrastive loss when fine-tuning large-scale pre-trained transformer models to learn better task-specific sentence embeddings for pairwise sentence scoring tasks. We introduce and study a number of variations in the calculation of the loss as well as in the overall training procedure; in particular, we find that data shuffling can be quite important. Our experimental results show sizable improvements on a number of datasets and pairwise sentence scoring tasks including classification, ranking, and regression. Finally, we offer detailed analysis and discussion, which should be useful for researchers aiming to explore the utility of contrastive loss in NLP.


翻译:在计算机的视野中,使用差异化损失来进行代议制学习的做法已变得十分突出,现在自然语言处理(NLP)中正在引起注意。在这里,我们探索了在微调大型预先培训的变压器模型时使用批量软化对比损失的想法,以学习如何更好地为配对制刑期评分任务嵌入针对具体任务的判决。我们引入并研究了计算损失和总体培训程序的若干不同之处;特别是,我们发现数据打乱可能相当重要。我们的实验结果显示,一些数据集和配对的评分任务,包括分类、排行和回归任务,都取得了相当大的改进。最后,我们提供了详细的分析和讨论,这对研究人员探索国家语言处理方案中对比性损失的效用应该有用。

0
下载
关闭预览

相关内容

专知会员服务
21+阅读 · 2021年5月14日
Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
【MIT】反偏差对比学习,Debiased Contrastive Learning
专知会员服务
90+阅读 · 2020年7月4日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
31+阅读 · 2020年4月23日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
已删除
将门创投
4+阅读 · 2018年6月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
0+阅读 · 2022年2月7日
Arxiv
5+阅读 · 2020年10月22日
Arxiv
31+阅读 · 2020年9月21日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Arxiv
11+阅读 · 2018年10月17日
Arxiv
5+阅读 · 2018年1月18日
VIP会员
相关资讯
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
已删除
将门创投
4+阅读 · 2018年6月26日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员