The principle of independent causal mechanisms (ICM) states that generative processes of real world data consist of independent modules which do not influence or inform each other. While this idea has led to fruitful developments in the field of causal inference, it is not widely-known in the NLP community. In this work, we argue that the causal direction of the data collection process bears nontrivial implications that can explain a number of published NLP findings, such as differences in semi-supervised learning (SSL) and domain adaptation (DA) performance across different settings. We categorize common NLP tasks according to their causal direction and empirically assay the validity of the ICM principle for text data using minimum description length. We conduct an extensive meta-analysis of over 100 published SSL and 30 DA studies, and find that the results are consistent with our expectations based on causal insights. This work presents the first attempt to analyze the ICM principle in NLP, and provides constructive suggestions for future modeling choices. Code available at https://github.com/zhijing-jin/icm4nlp


翻译:独立因果机制的原则(ICM)指出,真实世界数据的基因化过程由独立模块组成,这些模块互不影响或互通,虽然这一想法在因果推断领域取得了丰硕的发展,但在NLP社区中并不广为人知。在这项工作中,我们认为数据收集过程的因果方向具有非技术性影响,可以解释一些已公布的NLP结果,如半监督学习(SSL)和不同环境的域适应(DA)的不同性能。我们根据因果方向对通用的NLP任务进行分类,并用经验性方法用最短的描述长度对内容数据原则的有效性作出分析。我们对100多份已公布的SSL和30份DA研究进行了广泛的元分析,发现其结果与我们基于因果洞见的预期相一致。这项工作首次试图分析NLP的ICM原则,并为未来的建模选择提供建设性建议。代码见https://github.com/zhiing-jin/icm4npp。

0
下载
关闭预览

相关内容

迄今为止,产品设计师最友好的交互动画软件。

专知会员服务
50+阅读 · 2021年8月8日
专知会员服务
43+阅读 · 2020年12月18日
【PKDD2020教程】机器学习不确定性,附88页ppt与视频
专知会员服务
94+阅读 · 2020年10月18日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
2+阅读 · 2021年12月15日
Arxiv
25+阅读 · 2021年3月20日
Arxiv
5+阅读 · 2020年12月10日
Meta Learning for Causal Direction
Arxiv
5+阅读 · 2020年7月6日
Arxiv
4+阅读 · 2020年3月19日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2021年8月8日
专知会员服务
43+阅读 · 2020年12月18日
【PKDD2020教程】机器学习不确定性,附88页ppt与视频
专知会员服务
94+阅读 · 2020年10月18日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
2+阅读 · 2021年12月15日
Arxiv
25+阅读 · 2021年3月20日
Arxiv
5+阅读 · 2020年12月10日
Meta Learning for Causal Direction
Arxiv
5+阅读 · 2020年7月6日
Arxiv
4+阅读 · 2020年3月19日
Arxiv
10+阅读 · 2017年7月4日
Top
微信扫码咨询专知VIP会员