Massive data collection holds the promise of a better understanding of complex phenomena and, ultimately, better decisions. Representation learning has become a key driver of deep learning applications, as it allows learning latent spaces that capture important properties of the data without requiring any supervised annotations. Although representation learning has been hugely successful in predictive tasks, it can fail miserably in causal tasks including predicting the effect of a perturbation/intervention. This calls for a marriage between representation learning and causal inference. An exciting opportunity in this regard stems from the growing availability of multi-modal data (observational and perturbational, imaging-based and sequencing-based, at the single-cell level, tissue-level, and organism-level). We outline a statistical and computational framework for causal structure and representation learning motivated by fundamental biomedical questions: how to effectively use observational and perturbational data to perform causal discovery on observed causal variables; how to use multi-modal views of the system to learn causal variables; and how to design optimal perturbations.


翻译:大规模数据收集为实现对复杂现象的深入理解以及最终做出更优决策提供了可能。表示学习已成为深度学习应用的关键驱动力,它能够学习捕获数据重要属性的潜在空间,而无需任何监督标注。尽管表示学习在预测任务中取得了巨大成功,但在因果任务(包括预测扰动/干预的效果)中可能表现不佳。这要求将表示学习与因果推断相结合。在这方面,一个令人兴奋的机遇源于多模态数据(观测性与扰动性、基于成像与基于测序、单细胞水平、组织水平和生物体水平)的日益普及。我们提出了一个面向因果结构与表示学习的统计与计算框架,其动机源于基础生物医学问题:如何有效利用观测与扰动数据进行已观测因果变量的因果发现;如何利用系统的多模态视角学习因果变量;以及如何设计最优扰动。

0
下载
关闭预览

相关内容

专知会员服务
15+阅读 · 2021年7月21日
专知会员服务
63+阅读 · 2021年3月12日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年7月21日
专知会员服务
63+阅读 · 2021年3月12日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员