Pre-trained language models (PTLM) have achieved impressive results in a range of natural language understanding (NLU) and generation (NLG) tasks. However, current pre-training objectives such as masked token prediction (for BERT-style PTLMs) and masked span infilling (for T5-style PTLMs) do not explicitly model the relational commonsense knowledge about everyday concepts, which is crucial to many downstream tasks that need common sense to understand or generate. To augment PTLMs with concept-centric commonsense knowledge, in this paper, we propose both generative and contrastive objectives for learning common sense from the text, and use them as intermediate self-supervised learning tasks for incrementally pre-training PTLMs (before task-specific fine-tuning on downstream datasets). Furthermore, we develop a joint pre-training framework to unify generative and contrastive objectives so that they can mutually reinforce each other. Extensive experimental results show that our method, concept-aware language model (CALM), can pack more commonsense knowledge into the parameters of a pre-trained text-to-text transformer without relying on external knowledge graphs, yielding better performance on both NLU and NLG tasks. We show that while only incrementally pre-trained on a relatively small corpus for a few steps, CALM outperforms baseline methods by a consistent margin and even comparable with some larger PTLMs, which suggests that CALM can serve as a general, plug-and-play method for improving the commonsense reasoning ability of a PTLM.


翻译:培训前语言模型(PTLM)在一系列自然语言理解(NLU)和生成(NLG)任务中取得了令人印象深刻的成果,然而,目前的培训前目标,如蒙面象征性预测(为BERT式的PTLM)和蒙面跨填充(为T5式的PTLMS)没有明确模拟关于日常概念的关系常识知识,这对许多需要理解或产生常识才能产生的许多下游任务至关重要。为了扩大具有概念中心常识知识的PTLM,我们在本文件中提出了从文本中学习常识的变异和对比性目标,并把它们用作对PTLMS进行逐步培训(为T5型的PTLMS)和蒙面填充(为T5型的PLMMS)的隐性标本(为PTLLMS)的中间自上显示的学习任务。 此外,我们开发了一个联合培训前框架,以整合和对比性的目标相互加强。 广泛的实验结果表明,我们的方法、概念了解语言模型(CALM)只能将更多的常识知识纳入一个比值参数的参数的参数参数参数的参数参数,而我们只能通过比较的C-LLLLLLM的递增的进度的进度的进度的进度法,用来显示一个比较性普通的普通的进度的进度的进度的进度的普通的进度法,用来显示S-LM的进度法,用来在SBRF-gRF-g-gR的进度的进度的进度,用来显示的进度的进度的进度的进度的进度的进度法,用来显示SBR的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的进度的比。

0
下载
关闭预览

相关内容

Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
5+阅读 · 2019年4月21日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
12+阅读 · 2019年2月28日
VIP会员
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关论文
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
5+阅读 · 2019年4月21日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Arxiv
12+阅读 · 2019年2月28日
Top
微信扫码咨询专知VIP会员