Determining the plausibility of causal relations between clauses is a commonsense reasoning task that requires complex inference ability. The general approach to this task is to train a large pretrained language model on a specific dataset. However, the available training data for the task is often scarce, which leads to instability of model training or reliance on the shallow features of the dataset. This paper presents a number of techniques for making models more robust in the domain of causal reasoning. Firstly, we perform adversarial training by generating perturbed inputs through synonym substitution. Secondly, based on a linguistic theory of discourse connectives, we perform data augmentation using a discourse parser for detecting causally linked clauses in large text, and a generative language model for generating distractors. Both methods boost model performance on the Choice of Plausible Alternatives (COPA) dataset, as well as on a Balanced COPA dataset, which is a modified version of the original data that has been developed to avoid superficial cues, leading to a more challenging benchmark. We show a statistically significant improvement in performance and robustness on both datasets, even with only a small number of additionally generated data points.


翻译:确定条款之间因果关系的可信度是一项常识推理任务,需要复杂的推理能力。这项任务的一般方法是在具体数据集上培训一个大型的预先培训语言模型。然而,这项任务的现有培训数据往往很少,导致示范培训不稳定,或依赖数据集的浅质特征。本文件介绍了使模型在因果推理领域更加稳健的若干技术。首先,我们进行对抗性培训,通过同义替代生成过敏输入。第二,根据语言学理论,我们利用一个谈话连接学分析器来进行数据增强,我们使用一个谈话分析器来探测大文本中的因果联系条款,以及生成分散器的基因化语言模型。这两种方法都促进了选择可变异替代数据集的模式性能,以及平衡的COPA数据集的性能,这是为避免浅色提示而开发的原始数据的修改版,导致更具有挑战性的基准。我们展示了两个数据集的性能和稳健性在统计上显著的改进,即使是少量的额外数据。

0
下载
关闭预览

相关内容

【EMNLP2020最佳论文】无声语音的数字化发声
专知会员服务
11+阅读 · 2020年11月20日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
【KDD2020】多源深度域自适应的时序传感数据
专知会员服务
61+阅读 · 2020年5月25日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
已删除
将门创投
8+阅读 · 2019年6月13日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Arxiv
0+阅读 · 2021年3月4日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
VIP会员
相关资讯
已删除
将门创投
8+阅读 · 2019年6月13日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Top
微信扫码咨询专知VIP会员