成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
一文读懂可解释机器学习简史,让你的模型再也不是「Black Box」
2020 年 11 月 8 日
THU数据派
来源:新智元
本文
约
1939
字
,建议阅读
4分钟
。
本文
介绍可解释机器学习(IML)领域的历史,给出了最先进的可解释方法的概述,并讨论了遇到的挑战。
【导读】
近年来,可解释机器学习(IML) 的相关研究蓬勃发展。尽管这个领域才刚刚起步,但是它在回归建模和基于规则的机器学习方面的相关工作却始于20世纪60年代。最近,arXiv上的一篇论文简要介绍了解释机器学习(IML)领域的历史,给出了最先进的可解释方法的概述,并讨论了遇到的挑战。
当机器学习模型用在产品、决策或者研究过程中的时候,「可解释性」通常是一个决定因素。
可解释机器学习(
Interpretable machine learning ,简称 IML
)可以用来来发现知识,调试、证明模型及其预测,以及控制和改进模型。
研究人员认为 IML的发展在某些情况下可以认为已经步入了一个新的阶段,但仍然存在一些挑战。
可解释机器学习(IML)简史
最近几年有很多关于可解释机器学习的相关研究, 但是从数据中学习可解释模型的历史由来已久。
线性回归早在19世纪初就已经被使用,从那以后又发展成各种各样的回归分析工具,例如,广义相加模型(generalized additive models)和弹性网络(elastic net)等。
这些统计模型背后的哲学意义通常是做出某些分布假设或限制模型的复杂性,并因此强加模型的内在可解释性。
而在机器学习中,使用的建模方法略有不同。
机器学习算法通常遵循非线性,非参数方法,而不是预先限制模型的复杂性,在该方法中,模型的复杂性通过一个或多个超参数进行控制,并通过交叉验证进行选择。这种灵活性通常会导致难以解释的模型具有良好的预测性能。
虽然机器学习算法通常侧重于预测的性能,但关于机器学习的可解释性的工作已经存在了很多年。随机森林中内置的特征重要性度量是可解释机器学习的重要里程碑之一。
深度学习在经历了很长时间的发展后,终于在2010年的ImageNet中获胜。
从那以后的几年,根据Google上「可解释性机器学习」和「可解释的AI」这两个搜索词的出现频率,可以大概得出IML领域在2015年才真正起飞。
IML中的常见方法
通常会通过分析模型组件,模型敏感性或替代模型来区分IML方法。
分析可解释模型的成分
为了分析模型的组成部分,需要将其分解为可以单独解释的部分。但是,并不一定需要用户完全了解该模型。
通常可解释模型是具有可学习的结构和参数的模型,可以为其分配特定的解释。在这种情况下,线性回归模型,决策树和决策规则被认为是可解释的。
线性回归模型可以通过分析组件来解释:模型结构(特征的加权求和)允许将权重解释为特征对预测的影响。
分析更复杂模型的成分
研究人员还会分析更复杂的黑盒模型的组成部分。例如,可以通过查找或生成激活的CNN特征图的图像来可视化卷积神经网络(CNN)学习的抽象特征。
对于随机森林,通过树的最小深度分布和基尼系数来分析随机森林中的树,可以用来量化特征的重要性。
模型成分分析是一个不错的工具,但是它的缺点是与特定的模型相关, 而且它不能与常用的模型选择方法很好地结合,通常是通过机器学习搜索很多不同的ML模型进行交叉验证。
IML发展中遇到的挑战
统计不确定性
许多 IML 方法,例如:特征重要度的排列组合等,在不量化解释不确定性的情况下提供了解释。
模型本身以及其解释都是根据数据计算的,因此存在不确定性。目前研究正在努力量化解释的不确定性,例如对于特征重要性的逐层分析相关性等。
因果解释
理想情况下,模型应反映其潜在现象的真实因果结构,以进行因果解释。如果在科学中使用IML,则因果解释通常是建模的目标。
但是大多数统计学习程序仅反映特征之间的相关结构并分析数据的生成过程,而不是其真正的固有结构
。这样的因果结构也将使模型更强大地对抗攻击,并且在用作决策依据时更有用。
不幸的是,预测性能和因果关系可能是一种相互矛盾的目标。
例如,今天的天气直接导致明天的天气,但是我们可能只能使用「湿滑的地面」这个信息,在预测模型中使用「湿滑的地面」来表示明天的天气很有用,因为它含有今天的天气的信息,但由于ML模型中缺少了今天的天气信息,因此不能对其进行因果解释。
特征依赖
特征之间的依赖引入了归因和外推问题
。例如,当特征之间相互关联并共享信息时,特征的重要性和作用就变得难以区分。
随机森林中的相关特征具有较高的重要性,许多基于灵敏度分析的方法会置换特征,当置换后的特征与另一特征具有某种依赖性时,此关联将断开,并且所得数据点将外推到分布之外的区域。
ML模型从未在这类组合数据上进行过训练,并且可能不会在应用程序中遇到类似的数据点。因此,外推可能会引起误解。
如何向具有不同知识和背景的个人解释预测结果,以及满足有关机构或社会层面的可解释性的需求可能是IML今后的目标。
它涵盖了更广泛的领域,例如人机交互,心理学和社会学等。为了解决未来的挑战,作者认为可解释机器学习领域必须横向延伸到其他领域,并在统计和计算机科学方面纵向延伸。
参考链接:
https://arxiv.org/abs/2010.09337
——
EN
D
——
登录查看更多
点赞并收藏
0
暂时没有读者
2
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
可解释机器学习
关注
526
可解释性是指一个人能够持续预测模型结果的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。
机器学习的可解释性
专知会员服务
69+阅读 · 2020年12月18日
【哈佛大学】最新《理解模型可解释性》综述报告,45页ppt
专知会员服务
77+阅读 · 2020年12月4日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
130+阅读 · 2020年11月19日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
160+阅读 · 2020年10月10日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
169+阅读 · 2020年5月27日
【WWW2020-微软】理解用户行为用于文档推荐
专知会员服务
36+阅读 · 2020年4月5日
【CHI2020-微软】解释可解释性:理解数据科学家使用机器学习的可解释性工具
专知会员服务
103+阅读 · 2020年3月8日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
204+阅读 · 2020年2月24日
美国DARPA204页可解释人工智能文献综述论文《Explanation in Human-AI Systems》
专知会员服务
96+阅读 · 2020年1月9日
可解释机器学习(Interpretable Machine Learning):打开黑盒之谜(238页书籍下载)
专知会员服务
151+阅读 · 2019年10月27日
知识图谱在可解释人工智能中的作用,附81页ppt
专知
89+阅读 · 2019年11月11日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
干货 | 可解释的机器学习
AI科技评论
20+阅读 · 2019年7月3日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
高赞新书《可解释的机器学习》出版:理解黑盒必备,免费资源
量子位
22+阅读 · 2019年2月23日
可解释机器学习:打开黑盒之谜(238页书籍下载)
专知
28+阅读 · 2019年1月15日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
理解XGBoost机器学习模型的决策过程
炼数成金订阅号
4+阅读 · 2017年12月22日
教程 | 理解XGBoost机器学习模型的决策过程
机器之心
6+阅读 · 2017年12月20日
量化金融简史
算法与数学之美
11+阅读 · 2017年9月12日
Undecidability of Underfitting in Learning Algorithms
Arxiv
0+阅读 · 2021年2月8日
LDP-FL: Practical Private Aggregation in Federated Learning with Local Differential Privacy
Arxiv
5+阅读 · 2020年7月31日
Towards Backward-Compatible Representation Learning
Arxiv
5+阅读 · 2020年3月26日
Interference and Generalization in Temporal Difference Learning
Arxiv
8+阅读 · 2020年3月13日
Jointly Learning Entity and Relation Representations for Entity Alignment
Arxiv
3+阅读 · 2019年9月20日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
OpenNMT: Neural Machine Translation Toolkit
Arxiv
3+阅读 · 2018年5月28日
Handling Homographs in Neural Machine Translation
Arxiv
3+阅读 · 2018年3月28日
VQA-E: Explaining, Elaborating, and Enhancing Your Answers for Visual Questions
Arxiv
17+阅读 · 2018年3月20日
Interpretable R-CNN
Arxiv
4+阅读 · 2017年11月14日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
可解释机器学习
机器学习
黑盒子
可解释性
线性回归
随机森林
相关VIP内容
机器学习的可解释性
专知会员服务
69+阅读 · 2020年12月18日
【哈佛大学】最新《理解模型可解释性》综述报告,45页ppt
专知会员服务
77+阅读 · 2020年12月4日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
130+阅读 · 2020年11月19日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
160+阅读 · 2020年10月10日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
169+阅读 · 2020年5月27日
【WWW2020-微软】理解用户行为用于文档推荐
专知会员服务
36+阅读 · 2020年4月5日
【CHI2020-微软】解释可解释性:理解数据科学家使用机器学习的可解释性工具
专知会员服务
103+阅读 · 2020年3月8日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
204+阅读 · 2020年2月24日
美国DARPA204页可解释人工智能文献综述论文《Explanation in Human-AI Systems》
专知会员服务
96+阅读 · 2020年1月9日
可解释机器学习(Interpretable Machine Learning):打开黑盒之谜(238页书籍下载)
专知会员服务
151+阅读 · 2019年10月27日
热门VIP内容
开通专知VIP会员 享更多权益服务
《人工智能辅助决策面临的三大挑战》最新33页
《向预测性维护系统过渡》
为什么需要 “大脑启发式人工智能 ”来实现真正的无人自主?
《陆军2023 - 2025 年数字化和数据计划:帮助实现陆军数字化转型的指南》20页
相关资讯
知识图谱在可解释人工智能中的作用,附81页ppt
专知
89+阅读 · 2019年11月11日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
干货 | 可解释的机器学习
AI科技评论
20+阅读 · 2019年7月3日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
高赞新书《可解释的机器学习》出版:理解黑盒必备,免费资源
量子位
22+阅读 · 2019年2月23日
可解释机器学习:打开黑盒之谜(238页书籍下载)
专知
28+阅读 · 2019年1月15日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
理解XGBoost机器学习模型的决策过程
炼数成金订阅号
4+阅读 · 2017年12月22日
教程 | 理解XGBoost机器学习模型的决策过程
机器之心
6+阅读 · 2017年12月20日
量化金融简史
算法与数学之美
11+阅读 · 2017年9月12日
相关论文
Undecidability of Underfitting in Learning Algorithms
Arxiv
0+阅读 · 2021年2月8日
LDP-FL: Practical Private Aggregation in Federated Learning with Local Differential Privacy
Arxiv
5+阅读 · 2020年7月31日
Towards Backward-Compatible Representation Learning
Arxiv
5+阅读 · 2020年3月26日
Interference and Generalization in Temporal Difference Learning
Arxiv
8+阅读 · 2020年3月13日
Jointly Learning Entity and Relation Representations for Entity Alignment
Arxiv
3+阅读 · 2019年9月20日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
OpenNMT: Neural Machine Translation Toolkit
Arxiv
3+阅读 · 2018年5月28日
Handling Homographs in Neural Machine Translation
Arxiv
3+阅读 · 2018年3月28日
VQA-E: Explaining, Elaborating, and Enhancing Your Answers for Visual Questions
Arxiv
17+阅读 · 2018年3月20日
Interpretable R-CNN
Arxiv
4+阅读 · 2017年11月14日
大家都在搜
洛克菲勒
palantir
大规模语言模型
生成式人工智能
斯坦福博士论文
自主可控
科研工具
日本
时序知识图谱
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top