导语
结构因果模型(SCM)是表示因果关系的重要方法。图神经网络是在多个领域都取得出色表现的深度学习新贵。DeepMind9月10日提交在arXiv的最新工作“Relating Graph Neural Networks to Structural Causal Models”,提出了基于图神经网络的变分图自编码器来解决因果问题,在图神经网络和结构因果模型之间建立了新的联系,是在深度学习在因果推断问题上的新尝试。
集智俱乐部特别邀请到论文第一作者Matej Zečević进行一场线上直播,详细介绍这项工作并与感兴趣的国内外同行交流。直播时间为9月24日(周五)21:00-22:00,欢迎感兴趣的朋友报名。参与方式为zoom会议室和B站。本次直播交流语言为英文。
论文题目:
Relating Graph Neural Networks to Structural Causal Models
论文地址:
https://arxiv.org/abs/2109.04173
理解因果是人类认知的核心,而深度学习在函数拟合方面获取了巨大的成功,如何将因果关系与深度学习的理论相结合,是理解人类智能的关键之一。
本次分享将以神经-因果(Neuro-Causality)这个值得探讨的新方向开始,基于之前的探索,Xia, Lee, Bengio 和 Bareinboim最近形式化了因果与神经网络之间的关系(e.g. Kocaoglu et al. 2017, Ke et al. 2020),神经-因果模型有望可以在一些广泛的应用中,实现基于神经网络的因果推理。
Judea Pearl在他的开创性著作中对纯粹因果关系进行了形式化的思考,并用结构因果模型 (Structural causal model, SCM) 来描述它,因果结构模型可以描述现实世界中人们感兴趣的变量及其相互作用,是一种能够形式化表述数据背后因果假设的方法。对于大多数感兴趣的过程来说,底层的SCM只是部分可见的,因此因果推理试图利用任何可观测的信息。
图神经网络 (Graph neural networks, GNNs) 可以处理图类型数据,能够对连边和节点进行建模,在药物发现和地图预测等方面取得了很好的效果,但GNN模型在输入的结构上存在归纳偏置,即,输入的维度是相关的,这样它们就形成了一个图结构。
基于这两个模型的核心结构都是图结构,DeepMind团队Zečević, Dhami, Veličković, 和 Kersting设计了一种基于图神经网络的变分图自编码器,用于近似Pearl因果层次结构中的因果计算问题,建立了图神经网络和结构因果模型之间的转换机制。
本次分享作者将会从第一性原理出发,推导出GNN和SCM之间的理论联系,并提供一个对一般神经因果模型的扩展观点,提出了Neural Causal Models (NCM) 模型,通过形式化GNN的干预,利用变分图自编码器建立了一个新的神经因果模型类,并用实证检验了该理论模型在识别和估计任务中的实际因果推理,最后作者将对神经-因果的关系未来有趣的研究方向进行进一步的展望,提出更多可以进一步探索的方向。
分享人
Matej Zečević,达姆施塔特工业大学(Technische Universität Darmstadt)计算机科学专业博士候选人。他的研究兴趣是强化学习中的Disentanglement问题。
个人主页:https://matej-zecevic.de/
主持人
陆超超,剑桥大学机器学习组博士生,他的研究兴趣是机器学习,特别是涉及到如何结合因果推理、贝叶斯推理、强化学习和深度学习各自的优势,并将它们应用在现实领域中解决实际问题,如计算机视觉和医疗等领域。
个人主页:https://causallu.com/
时间:2021年9月24日21:00-22:00(北京UTC/GMT+8)
报名链接:https://pattern.swarma.org/mobile/activity/4
扫码报名