【WSDM 2021】面向信息检索的预训练语言模型

2020 年 11 月 29 日 专知



 在大规模无标签文本上预训练语言模型,然后在下游任务微调的学习模式已经在自然语言处理(NLP)领域取得了广泛的应用。尽管当前的预训练语言模型在大部分NLP任务上取得了显著的进展,然而,研究人员发现当预训练任务的目标更接近于下游任务的目标时,模型在下游任务上能取得更大幅度的性能提升,例如针对文本摘要设计的Gap Sentence Prediciton预训练任务[1]、面向机器阅读理解设计的Span Selection预训练任务[2]、以及为情感分析设计的Label-aware MLM预训练任务[3],都取得了相较于原始预训练语言模型更好的性能。近年来,在信息检索(IR)中,预训练语言模型在文档排序任务上取得了一定的效果,然而,如何设计更符合信息检索需求的预训练目标,是一个值得探索的新领域。


在这项工作中,我们提出了一个新颖的针对信息检索的预训练任务,叫做“代表词预测”任务(Representative Words Prediction)。这个任务是受到了IR中经典统计语言模型——查询似然模型的启发,在查询似然模型的基本假设中,查询被认为是由“理想”文档“生成”出来的具有代表性的文本,因此通过贝叶斯定理推导,查询的相关性强度可由其代表性或者说是其似然值表征。鉴于此,我们就构建了这样一个新的代表词预测任务(简称为ROP任务),具体来说,对于一个给定的文档,我们根据文档语言模型(狄利克雷平滑的多项式语言模型)采样出该文档的代表性词集,然后预训练语言模型使其能够有效地区分出其中哪些词项更具有代表性。为了同时建模查询和文档内容理解以及二者关系的预测,我们结合ROP与MLM一起在无标签的文档语料上进行预训练,我们把通过这种预训练方式得到的语言模型命名为PROP。


https://www.zhuanzhi.ai/paper/57435651043bb840be881c8e7a71c70d


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“PROP” 就可以获取《【WSDM 2021】面向信息检索的预训练语言模型》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

近年来,预训练模型(例如ELMo、GPT、BERT和XLNet等)的快速发展大幅提升了诸多NLP任务的整体水平,同时也使得很多应用场景进入到实际落地阶段。预训练语言模型本身就是神经网络语言模型,它的特点包括:第一,可以使用大规模无标注纯文本语料进行训练;第二,可以用于各类下游NLP任务,不是针对某项定制的,但以后可用在下游NIP任务上,你不需要为下游任务专门设计一种神经网络,或者提供一种结构,直接在几种给定的固定框架中选择一种进行 fine-tune,就可以从而得到很好的结果。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
191+阅读 · 2020年10月14日
专知会员服务
6+阅读 · 2020年9月21日
【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
专知会员服务
88+阅读 · 2020年7月23日
【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
68+阅读 · 2020年7月12日
【KDD2020】图神经网络生成式预训练
专知
21+阅读 · 2020年7月3日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
Arxiv
0+阅读 · 2021年2月1日
Arxiv
0+阅读 · 2021年1月30日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
3+阅读 · 2019年8月19日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
8+阅读 · 2014年6月27日
VIP会员
相关VIP内容
相关论文
Arxiv
0+阅读 · 2021年2月1日
Arxiv
0+阅读 · 2021年1月30日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
3+阅读 · 2019年8月19日
Arxiv
8+阅读 · 2019年3月21日
Arxiv
8+阅读 · 2014年6月27日
Top
微信扫码咨询专知VIP会员