日常生活中,人类在与他人互动时通常能够理解自身行为对他人的影响,即便彼此并不共享共同目标。在高风险领域中,这一点尤为关键——一旦无法理解如何对他人的行为作出反应,或无法预判他人的反应,可能会导致伤害甚至死亡。因此,为那些在现实世界中愈发频繁地与人类共处的自主智能体开发类似的能力显得尤为重要。 本论文聚焦于快速发展的自动驾驶车辆领域,因为其中智能体之间的交互广泛存在,同时对可解释性与透明性也有较高要求。鉴于智能体交互本质上具有因果属性,并且解释过程可以利用反事实推断,本研究基于因果推断相关文献展开。 本文除对上述研究领域的文献进行综述外,共包含四个主要章节作为核心贡献: 第一章介绍因果理论,并将其应用于自动驾驶车辆领域;随后在真实自动驾驶数据上对现有因果发现方法进行基准评测,以识别这些技术所面临的挑战。 第二章结合基于行为的“心智理论”(Theory of Mind)与反事实推断,提出 SimCARSv1,其性能优于第一章所评测的方法。 第三章在此基础上进一步研究如何使用结构因果模型(Structural Causal Models)来表示一个由多个交互式自主智能体构成的系统,并解决相关挑战。 **第四章(最终章)**整合前几章的贡献,并引入一种用于估计智能体瞬时奖励参数的方法。最终提出 SimCARSv2,其定量性能与 SimCARSv1 相当,但由于采用基于结构因果模型的架构,其表达能力更强。 这些工作共同代表了将因果推断与自动驾驶车辆这两个前景广阔的研究方向进一步连接起来的重要一步,其最终目标是构建能够安全与人类交互的自主智能体技术。