机器学习模型包含训练数据的相关信息。这些信息要么通过模型本身泄露,要么通过模型做出的预测泄露。因此,当训练数据包含敏感属性时,评估信息泄漏量是至关重要的。我们提出了一种利用模型中关于数据的Fisher信息来量化这种泄漏的方法。在最坏情况下,基于先验的差别隐私保证,Fisher信息损失测量关于数据集中的特定实例、属性或子群的泄漏。我们通过Cramér-Rao约束激励Fisher信息损失,并描述隐含威胁模型。给出了输出摄动广义线性模型Fisher信息损失的有效计算方法。最后,实证验证了Fisher信息损失是一种有效的信息泄漏度量方法。