可解释的机器学习最近引起了人们的极大兴趣。我们将安全性作为激增背后的一个关键动机,并使可解释性和安全性之间的关系更加定量。为了评估安全性,我们引入了最大偏差的概念,通过优化问题找到监督学习模型与被视为安全的参考模型的最大偏差。然后,我们将展示可解释性如何促进这种安全评估。对于决策树模型、广义线性模型和加性模型,可以准确有效地计算最大偏差。对于树集合,它被认为是不可解释的,离散优化技术仍然可以提供信息边界。对于更广泛的分段Lipschitz函数,我们利用多臂强盗文献来表明可解释性在最大偏差上产生更紧密的(遗憾)界限。我们提出了案例研究,包括一个抵押贷款批准,以说明我们的方法和关于模型的见解,可能从偏差最大化。
https://www.zhuanzhi.ai/paper/90be37d656582594277db63ca838a13c
专知便捷查看
便捷下载,请关注专知公众号(点击上方蓝色专知关注)
后台回复“SIML” 就可以获取《【NeurIPS2022】可解释机器学习的安全性:一种最大偏差方法》专知下载链接