近年来,预训练在自然语言处理领域取得了十足火热的发展,并逐渐成为主流的范式之一。通过在大型的无监督文本语料上对语言模型进行预训练,然后拿到具体的下游任务上微调,预训练语言模型在各类NLP任务上都取得了相当不错的效果。最近,一部分研究工作开始探索预训练语言模型中所包含的事实知识。

本文以 Language Models as Knowledge Bases? 这篇论文为起点,对语言模型作为知识库(LM as KB)这一方向中一共8篇比较有代表性的工作进行了梳理。其中,前面两篇文章主要探索了预训练语言模型是否已经存储了一定程度的事实和常识知识,后面六篇文章则分别尝试从不同的角度对LM as KB这一范式进行更好的利用、改善以及对其存在的缺陷进行分析。

成为VIP会员查看完整内容
29

相关内容

专知会员服务
59+阅读 · 2021年5月28日
专知会员服务
112+阅读 · 2020年12月9日
【知识图谱@EMNLP2020】Knowledge Graphs in NLP @ EMNLP 2020
专知会员服务
40+阅读 · 2020年11月22日
【知识图谱@ACL2020】Knowledge Graphs in Natural Language Processing
专知会员服务
64+阅读 · 2020年7月12日
【北航】面向自然语言处理的预训练技术研究综述
专知会员服务
111+阅读 · 2020年4月23日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
132+阅读 · 2020年2月13日
pytorch中文语言模型bert预训练代码
AINLP
3+阅读 · 2020年7月22日
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
ACL 2020 | 用于链接预测的开放知识图谱嵌入
PaperWeekly
6+阅读 · 2020年6月26日
知识图谱实体链接:一份“由浅入深”的综述
PaperWeekly
9+阅读 · 2020年1月8日
带你读论文丨 8 篇论文梳理 BERT 相关模型
新智元
9+阅读 · 2019年9月9日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
论文浅尝 | Leveraging Knowledge Bases in LSTMs
开放知识图谱
6+阅读 · 2017年12月8日
Arxiv
99+阅读 · 2020年3月4日
Knowledge Distillation from Internal Representations
Arxiv
4+阅读 · 2019年10月8日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
6+阅读 · 2019年9月4日
VIP会员
相关主题
相关VIP内容
相关资讯
pytorch中文语言模型bert预训练代码
AINLP
3+阅读 · 2020年7月22日
ACL2020 | 基于Knowledge Embedding的多跳知识图谱问答
AI科技评论
18+阅读 · 2020年6月29日
ACL 2020 | 用于链接预测的开放知识图谱嵌入
PaperWeekly
6+阅读 · 2020年6月26日
知识图谱实体链接:一份“由浅入深”的综述
PaperWeekly
9+阅读 · 2020年1月8日
带你读论文丨 8 篇论文梳理 BERT 相关模型
新智元
9+阅读 · 2019年9月9日
BERT-预训练的强大
微信AI
60+阅读 · 2019年3月7日
论文浅尝 | Leveraging Knowledge Bases in LSTMs
开放知识图谱
6+阅读 · 2017年12月8日
微信扫码咨询专知VIP会员