根据观察数据估算反事实结果与许多应用(例如,个性化医疗)相关。然而,最先进的方法建立在简单的长短期记忆(LSTM)网络上,因此对复杂的、长期依赖关系的推断产生了挑战。在本文中,我们开发了一种新的因果Transformer ,用于随着时间的推移估计反事实结果。我们的模型是专门设计的,以捕获复杂的,长期的依赖性,时变混杂。为此,我们将三个Transformer子网络与时变协变量、以前的处理和以前的结果的单独输入组合成一个中间交叉关注的联合网络。我们进一步为因果Transformer 开发了一个定制的端到端培训程序。具体来说,我们提出了一种新的反事实领域混淆损失来解决混淆偏差:其目的是学习对抗性平衡表示,以便它们可以预测下一个结果,但不能预测当前的治疗分配。我们基于合成的和真实的数据集评估我们的因果Transformer,在这些数据集中,它实现了优于当前基线的性能。据我们所知,这是第一个提出基于transformer的架构来从纵向数据估计反事实结果的工作。

成为VIP会员查看完整内容
74

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
核因果模型:治疗效果、反事实、中介和代理,57页ppt
专知会员服务
29+阅读 · 2022年8月30日
【ICML2022教程】因果公平性分析,68页ppt
专知会员服务
30+阅读 · 2022年7月19日
专知会员服务
16+阅读 · 2021年9月17日
专知会员服务
25+阅读 · 2021年9月9日
专知会员服务
88+阅读 · 2021年9月5日
【AAAI2021】通过离散优化的可解释序列分类
专知会员服务
17+阅读 · 2020年12月5日
【ICML2022教程】因果公平性分析,68页ppt
专知
2+阅读 · 2022年7月19日
【ICML2022】序列决策的效用理论
专知
1+阅读 · 2022年6月30日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年9月15日
Arxiv
0+阅读 · 2022年9月14日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
11+阅读 · 2021年2月19日
Arxiv
15+阅读 · 2019年3月16日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关VIP内容
核因果模型:治疗效果、反事实、中介和代理,57页ppt
专知会员服务
29+阅读 · 2022年8月30日
【ICML2022教程】因果公平性分析,68页ppt
专知会员服务
30+阅读 · 2022年7月19日
专知会员服务
16+阅读 · 2021年9月17日
专知会员服务
25+阅读 · 2021年9月9日
专知会员服务
88+阅读 · 2021年9月5日
【AAAI2021】通过离散优化的可解释序列分类
专知会员服务
17+阅读 · 2020年12月5日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
23+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2022年9月15日
Arxiv
0+阅读 · 2022年9月14日
Interest-aware Message-Passing GCN for Recommendation
Arxiv
11+阅读 · 2021年2月19日
Arxiv
15+阅读 · 2019年3月16日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
微信扫码咨询专知VIP会员