图 7:可解释性与稳定性的困境就当下的人工智能技术而言,由于缺乏可解释性,所以模型的使用者无法理解模型做出预测和决策结果的原因;另一方面,如果模型并不能在各种场景下维持足够稳定的高性能,我们也无法充分信任这些模型。目前,我们面临着人工智能模型的「可解释性」和「稳定性」都不能得以充分保证的窘境。实际上,如果我们能够保证模型具有足够稳定的高性能,对模型「可解释性」的要求在某种程度上也可以适当降低。以汽车驾驶为例,并不是所有人都明白汽车的工作原理,但是由于汽车技术在各个层面上都足够可靠,我们仍然可以安心驾驶汽车。图 8:可能的造成窘境的原因——关联那么,导致当前的人工智能技术面临这种困境的原因是什么呢?在崔老师看来,当前的大多数机器学习模型都是以「关联统计」为基础的,这也许是造成这种困境的原因之一。实际上,关联统计手段在某些情况下会存在一些弊端,可靠性无法得以保证。图 9:无法解释的关联性首先,关联性本身是不可解释的。如图 9 所示,直观地看,红色的曲线与黑色曲线应该高度相关。然而,红色的曲线实际上表示渔船上落水人员的溺死率,而黑色曲线则表示肯塔基州的结婚率。显然,尽管红黑两条曲线相关程度很高,这两份数据其实并没有太大的关系,这种曲线的相关性无法得到解释。当我们把问题推广到大数据环境下任意的两个趋势性变量时,这两个变量可能并不存在任何物理意义上的关系,但是由于变量 A 和 B 同时为增大趋势或同时为减小趋势,基于关联统计的模型就会认为这两个变量正相关;同理,当 A 和 B 的变化趋势相反时,基于关联的模型则会认为这两个变量负相关。然而,我们无法解释这两种趋势变量的关联性。因此,对于基于关联统计构造的模型而言,由于我们本身就无法保证关联性的可解释性,所以也就无法从根本上保证模型的可解释性。图 10:不稳定的关联性另一方面,关联性本身也是不稳定的。如前文所述,关联性的存在与数据分布有很大的关系。如图 10 所示,在训练关于狗的图片分类器时,由于训练数据中包含大量「草地上的狗」,草地和狗的标签之间会形成强相关的关系。当我们在测试时向模型输入「沙滩上的狗」时,图片背景中没有草地,然而模型在训练时会学习到草地和狗之间的强相关性,它会认为背景中没有草地的图片中出现狗的概率也会很小,此时分类模型的置信度也会有所降低。可见,当我们在测试中切换到与训练数据不同的分布时,关联性是不稳定的。因此,许多研究者将目光投向了「因果性」。例如,狗的特征空间中,红色的边界框包含一些训练数据中的相关特征,而黄色的边界框中的特征也与狗的标签高度相关。然而,这两种与标签高度相关的边界框中的特征的性质是不同的,黄色边界框中狗的身体上的特征是「因果特征」。对于人类而言,正是因为人类看到了黄色框中的标签才为图片赋予了狗的标签。当我们依赖「因果特征」进行预测时,即使我们在测试中更换到与训练数据不同的分布,这种因果结构很可能可以保证模型的稳定性,进行更稳定的预测。 4
图 12:因果的定义实际上,人们很难在定义「因果」的问题上达成共识。从哲学的视角上看,「如何定义因果」、「因果是否存在」都是具有争议的问题。但是从机器学习研究者的角度来说,我们更加关注是否存在一种更好的统计的方式,能够发现数据之间存在的更本质的关联。在此,我们将为「因果」给出一个实用性的定义。在如图 12 所示的三角形框架中,为了探究 T 是否会导致 Y,我们首先控制住除变量 T 之外所有其它的变量 X。在控制 X 不变的条件下,我们对 T 施加一定的影响,如果 Y 会随着 T 的变化而变化,我们则称 T 对 Y 有因果效应。我们将因果效应的大小定义为:对 T 施加单位扰动时,Y 发生变化的程度。以上就是从干预的角度出发,对因果的一种解释。图 13:将因果引入机器学习的好处将因果的概念引入机器学习领域,会带来一系列好处。在上文中提到的对狗的图像进行分类的例子中,「草」和狗的标签、「狗的鼻子」和狗的标签之间都存在强关联,从关联的层面上说二者区别不大。然而,从因果的层面上来看,假设 T 代表「草」、Y 代表狗的标签。给定两组数据,在其它特征(例如,狗的鼻子)都相同的情况下,一组数据中有草地,另一组数据中没有草地。我们会发现,这两组数据中狗的标签的百分比分布并没有显著差别。这是因为只要图片中出现了狗的鼻子,无论出现草地与否,都会包含狗。在这种情况下,我们会发现「草」对标签 Y 实际上并没有因果效应。相对应地,如果令 T 代表「狗的鼻子」,在两组数据中都出现草地的情况下,一组包含狗的鼻子,另一组不包含狗的鼻子,则两组数据中 Y 的百分比分布肯定会存在差异。因此,通过度量,我们发现「狗的鼻子」对狗的标签有因果效应。在因果的框架下进行度量时,「草」对于狗的标签存在非常弱的因果关系,而「狗的鼻子」和狗的标签存在非常强的因果关系。可见,如果我们在学习问题中依赖「因果」进行预测,模型的可解释性和稳定性都会得到提升。在此基础之上,崔老师的团队提出了「稳定学习」的概念。 6
稳定学习
图 14:稳定学习假设我们利用符合分布 1 的训练数据训练机器学习模型,如果我们在测试阶段使用的是同样符合「分布 1」的数据,那么这种情况就是满足独立同分布假设的学习问题。此外,当我们在测试时使用的是与「分布 1」不同的「分布 n」的数据,我们就需要通过迁移学习技术针对「分布 n」对模型进行优化。然而,尽管迁移学习技术可以在一定程度上解决这种特征分布偏移的问题,但它所面临的场景仍然不是最普适性的情况。这是因为,在迁移学习框架下,尽管并不要求测试数据和训练数据的分布必须一致,但是我们需要知道测试数据的分布才能进行进一步的域适应。不幸的是,在实际情况下,我们往往无法控制测试数据如何产生。因此,我们希望在将模型应用到不同的数据分布下的时候,针对准确率的方差进行优化,使准确率的波动可控或者为一个极小的量。同时,另一个需要优化的目标是模型的平均性能。如果我们能够保证模型在不同环境下具有可靠的模型性能,并且能够优化性能波动的方差,那么就可以实现「稳定学习」。图 15:因果推理的平衡我们将基于因果推理中的「混淆变量平衡」的思想来实现稳定学习。在因果推理领域中,如果我们想要根据可观测的数据估计 T 对 Y 的因果效应,首先要控制其余的所有变量 X 不变。然而实际上,当我们将数据划分为 T=0 和 T=1 的两组后,并不能保证两组数据中变量 X 的分布保持一致。因此,我们往往会通过使用「直接混淆变量平衡」(directly confounder balancing),即对试验组和对照组两组数据的样本进行加权,使得这两组数据加权后的 X 分布一致,此时这种设定就可以满足上文中对因果效应的定义。实际上,这种操作是通过样本加权的方式使得 T 和 X 相互独立。当 T 和 X 独立之后,度量 T 与 Y 之间的关联性等价于计算 T 与 Y 之间的因果效应。图 16:全局平衡当我们试图将上述思想推广到机器学习领域中时,一个重要的差异是:在因果领域中,我们度量的是单个变量对输出变量的因果效应,而在机器学习领域中我们需要使用所有的输入变量预测输出变量。因此,稳定学习旨在将上述思想推广到全局的层面上,试图学习一组样本权重,通过样本加权的方式使所有的输入变量之间都相互独立,从而可以利用现有的基于关联的模型实现基于因果的预测。 7
理论保障:Stable Prediction across Unknown Environments