可解释的机器学习最近引起了人们的极大兴趣。我们将安全性作为激增背后的一个关键动机,并使可解释性和安全性之间的关系更加定量。为了评估安全性,我们引入了最大偏差的概念,通过优化问题找到监督学习模型与被视为安全的参考模型的最大偏差。然后,我们将展示可解释性如何促进这种安全评估**。对于决策树模型、广义线性模型和加性模型,可以准确有效地计算最大偏差。对于树集合,它被认为是不可解释的,离散优化技术仍然可以提供信息边界。对于更广泛的分段Lipschitz函数,我们利用多臂强盗文献来表明可解释性在最大偏差上产生更紧密的(遗憾)界限**。我们提出了案例研究,包括一个抵押贷款批准,以说明我们的方法和关于模型的见解,可能从偏差最大化。

https://www.zhuanzhi.ai/paper/90be37d656582594277db63ca838a13c

成为VIP会员查看完整内容
22

相关内容

NeurIPS2022|基于解耦因果子结构学习的去偏差图神经网络
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
17+阅读 · 2021年11月6日
专知会员服务
14+阅读 · 2021年7月21日
[WWW2021]图结构估计神经网络
专知会员服务
42+阅读 · 2021年3月29日
【NeurIPS2020】因果推断学习教程,70页ppt
专知会员服务
186+阅读 · 2020年12月12日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
166+阅读 · 2020年5月27日
【NeurIPS2022】主动贝叶斯因果推理
专知
3+阅读 · 2022年11月14日
综述 | 推荐系统偏差与去偏总结
机器学习与推荐算法
3+阅读 · 2022年5月11日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
23+阅读 · 2017年7月9日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
Arxiv
14+阅读 · 2022年10月15日
AutoML: A Survey of the State-of-the-Art
Arxiv
67+阅读 · 2019年8月14日
VIP会员
相关VIP内容
NeurIPS2022|基于解耦因果子结构学习的去偏差图神经网络
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
17+阅读 · 2021年11月6日
专知会员服务
14+阅读 · 2021年7月21日
[WWW2021]图结构估计神经网络
专知会员服务
42+阅读 · 2021年3月29日
【NeurIPS2020】因果推断学习教程,70页ppt
专知会员服务
186+阅读 · 2020年12月12日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
166+阅读 · 2020年5月27日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员