In attempts to produce ML models less reliant on spurious patterns in NLP datasets, researchers have recently proposed curating counterfactually augmented data (CAD) via a human-in-the-loop process in which given some documents and their (initial) labels, humans must revise the text to make a counterfactual label applicable. Importantly, edits that are not necessary to flip the applicable label are prohibited. Models trained on the augmented data appear, empirically, to rely less on semantically irrelevant words and to generalize better out of domain. While this work draws loosely on causal thinking, the underlying causal model (even at an abstract level) and the principles underlying the observed out-of-domain improvements remain unclear. In this paper, we introduce a toy analog based on linear Gaussian models, observing interesting relationships between causal models, measurement noise, out-of-domain generalization, and reliance on spurious signals. Our analysis provides some insights that help to explain the efficacy of CAD. Moreover, we develop the hypothesis that while adding noise to causal features should degrade both in-domain and out-of-domain performance, adding noise to non-causal features should lead to relative improvements in out-of-domain performance. This idea inspires a speculative test for determining whether a feature attribution technique has identified the causal spans. If adding noise (e.g., by random word flips) to the highlighted spans degrades both in-domain and out-of-domain performance on a battery of challenge datasets, but adding noise to the complement gives improvements out-of-domain, it suggests we have identified causal spans. We present a large-scale empirical study comparing spans edited to create CAD to those selected by attention and saliency maps. Across numerous domains and models, we find that the hypothesized phenomenon is pronounced for CAD.


翻译:在试图生成不依赖于 NLP 数据集中虚假型态的 ML 模型时,研究人员最近提议通过提供某些文档及其(初始)标签的人为环形进程,校正反事实增加的数据(CAD ), 人类必须修改文本, 以适用反事实标签。 重要的是, 禁止不需要进行修改以翻转适用标签的错误。 受过强化数据培训的模型, 从经验上看, 似乎不那么依赖不相干的义词, 更全面地推广。 虽然这项工作以因果关系思维为主, 基本因果模型(即使是抽象的) 和所观察到的场外改进的原则仍然不明确。 在本文件中, 我们根据线性模型, 观察因果关系模型、 测量噪音、 外线性一般化和 依赖虚假信号之间的有趣关系。 我们的分析提供了一些有助于解释 CAD 有效性的洞察点。 此外, 我们开发了一个假设, 在增加因果特性的特性时, 既要降低内部的和外部的性能显示性能的性能, 也显示C- 显示, 判断性能的性能的性能的性能的性能性能, 显示, 确定C- 和外部性能的性能的性能的性能的性能的性能的性能的性能的性能的性能的性能, 显示, 显示是否的性能的性能的性能的性能的性能, 显示, 显示, 判断性能的性能的性能, 确定, 确定是否是, 是否是, 判断性能的性能的性能的性能的性能的性能的性能, 。

0
下载
关闭预览

相关内容

《计算机辅助设计》是一份领先的国际期刊,为学术界和工业界提供有关计算机应用于设计的研究和发展的重要论文。计算机辅助设计邀请论文报告新的研究以及新颖或特别重要的应用,在广泛的主题中,跨越所有阶段的设计过程,从概念创造到制造超越。 官网地址:http://dblp.uni-trier.de/db/journals/cad/
【干货书】机器学习速查手册,135页pdf
专知会员服务
126+阅读 · 2020年11月20日
【SIGIR2020-微软】知识图谱上的增强推荐推理
专知会员服务
75+阅读 · 2020年5月30日
因果图,Causal Graphs,52页ppt
专知会员服务
249+阅读 · 2020年4月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
6+阅读 · 2019年9月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员