机器学习正在医疗健康等各种关键应用得到实施。为了能够信任机器学习模型,并在它出现故障时修复它,能够解释它的决策是很重要的。例如,如果一个模型在特定的子群体(性别、种族等)上的表现很差,找出原因并解决它是很重要的。在本文中,我们研究了现有可解释性方法的不足,并介绍了新的ML可解释性算法,旨在解决一些不足。数据是训练机器学习模型的材料。如果不返回最初训练ML模型的数据,就不可能解释ML模型的行为。一个基本的挑战是如何量化每个数据源对模型性能的贡献。例如,在医疗健康和消费市场,有人提出个人应因其产生的数据而得到补偿,但对个人数据的公平估值尚不清楚。在本文中,我们讨论了数据公平价值评估的原则框架; 也就是说,给定一个学习算法和一个性能度量来量化结果模型的性能,我们试图找到单个数据的贡献。本论文分为3个部分,机器学习的可解释性和公平性,数据估值,以及用于医疗健康的机器学习——所有这些都被一个共同的目标联系在一起,即使机器学习的使用对人类的福祉更负责。