机器学习(ML)模型现在经常应用于从刑事司法到医疗保健的各个领域。随着这种新发现的普遍性,ML已经超越了学术界,发展成为一门工程学科。为此,解释工具设计来帮助数据科学家和机器学习实践者更好地理解ML模型的工作方式。然而,很少有人评估这些工具在多大程度上实现了这一目标。我们研究数据科学家对两种现有的可解释性工具的使用,即GAMs的解释性ml实现和SHAP Python包。我们对数据科学家进行了背景调查(N=11)和调查(N=197),以观察他们如何使用可解释性工具来发现在构建和评估ML模型时出现的常见问题。我们的结果表明,数据科学家过度信任和滥用解释工具。此外,很少有参与者能够准确地描述这些工具的可视化输出。我们为数据科学家的可解释工具心智模型强调定性主题。我们总结了对研究人员和工具设计者的启示,并将我们的发现置于社会科学文献的背景中。