在各种科学和工业情景中,发现一组变量之间的因果结构是一项至关重要的任务。基于联合分布的有限i.i.d.样本,因果发现本质上是一个具有挑战性的组合问题。功能性因果模型的最新发展,特别是NOTEARS为因果发现提供了一个可微分的优化框架。他们将结构学习问题定义为在非周期性和稀疏性等特定结构约束下,对观测数据(即变量重构)进行最大似然估计的任务。尽管在可扩展性方面取得了成功,但我们发现,优化这些可微分方法的目标并不总是与学习到的因果图的正确性一致,特别是当变量在野外环境的真实数据中携带异构噪声(即不同噪声类型和噪声方差)时。在本文中,我们证明了它们容易产生错误结构的原因主要是过度重构问题,即变量的噪声被吸收到变量重构过程中,导致变量重构残差之间的依赖性,进而根据FCM理论提出结构可识别性问题。为了弥补这一点,我们提出了一种新的可微方法DARING,通过采用对抗性的方式施加显式剩余独立性约束。在仿真和真实数据上的大量实验结果表明,我们提出的方法对外部噪声的异质性不敏感,从而可以显著提高因果发现性能。

http://pengcui.thumedialab.com/papers/DARING.pdf

成为VIP会员查看完整内容
32

相关内容

专知会员服务
16+阅读 · 2021年7月27日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
42+阅读 · 2021年7月1日
专知会员服务
21+阅读 · 2021年6月28日
专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
36+阅读 · 2021年6月3日
专知会员服务
3+阅读 · 2020年12月14日
《常微分方程》笔记,419页pdf
专知会员服务
71+阅读 · 2020年8月2日
专知会员服务
29+阅读 · 2020年7月31日
图神经网络架构,稳定性,可迁移性
专知
5+阅读 · 2020年8月8日
特征方程的物理意义
算法与数学之美
6+阅读 · 2019年5月13日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
学界 | 稳定、表征丰富的球面变分自编码器
机器之心
5+阅读 · 2018年10月12日
Arxiv
0+阅读 · 2021年9月1日
Bayesian Attention Belief Networks
Arxiv
9+阅读 · 2021年6月9日
Directional Graph Networks
Arxiv
27+阅读 · 2020年12月10日
VIP会员
相关VIP内容
专知会员服务
16+阅读 · 2021年7月27日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
42+阅读 · 2021年7月1日
专知会员服务
21+阅读 · 2021年6月28日
专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
36+阅读 · 2021年6月3日
专知会员服务
3+阅读 · 2020年12月14日
《常微分方程》笔记,419页pdf
专知会员服务
71+阅读 · 2020年8月2日
专知会员服务
29+阅读 · 2020年7月31日
相关资讯
图神经网络架构,稳定性,可迁移性
专知
5+阅读 · 2020年8月8日
特征方程的物理意义
算法与数学之美
6+阅读 · 2019年5月13日
注意力能提高模型可解释性?实验表明:并没有
黑龙江大学自然语言处理实验室
11+阅读 · 2019年4月16日
学界 | 稳定、表征丰富的球面变分自编码器
机器之心
5+阅读 · 2018年10月12日
微信扫码咨询专知VIP会员