机器学习的黑箱性一直让很多人感到头大。
对许多技术人员来说,机器学习在出现问题的时候,总会让人一头雾水,搞不清楚具体是哪里出了问题。
而对于商业应用来说,在医疗等高风险的情况下,机器学习的黑箱性给推广普及造成了困难,说不清楚,要如何让吃瓜群众和监管部门信任?
现在,了解机器学习黑箱性,有了一本系统全面的书:
Christoph Molnar年初公开的《可解释的机器学习(Interpretable Machine Learning)》
这本书总共耗时两年完成,长达250页。
在它的GitHub项目页上,一共有了1297个commits,除了作者Christoph Molnar之外,还有25位贡献者为它做出了贡献和修改。
Readme里的备注总共记录了从v0.1到v1.2出了10版,可谓是“披阅二载,增删十次”,是众人智慧的结晶。
因此,这本书也吸引了1277名用户标星,而作者将其公之于众的推特也吸引了近千转发,3000多人点赞。
Hacker News上不少人都对这本书啧啧称赞:
我在搞关于这个问题的学术研究,这是我当前找到的唯一一本相关的书,简直太棒了。
这本书简直太让人爱了,而且非常有用,既清晰又易读,还给出了许多在既定情况下如何操作的方法,提供了充足的细节方便你做决策。
甚至,还有中国出版社的编辑看上了这本书,希望引进出版中文版本:
而且,此书完整电子版免费阅读。
那,这本书里究竟写了些啥?
除了前言、致谢等内容外,整本书的核心部分有8个章节。分别是:
1.机器学习简介
2.可解释性
3.数据集
4.可解释的模型
5.模型不可知方法
6.基于实例的解释
7.神经网络解释
8.机器学习与可解释性研究的未来
每个部分作者都做了充足的解释与介绍,比如第四章《可解释的模型》中,作者介绍了线性回归、逻辑回归、决策树等模型,并进行了针对性的解释,介绍了基本的原理和特点,还提出了如果这个模型出现问题时的一些解决办法。
而且,对于更为基础的概念介绍章节,作者用许多平实的语言,结合各类现实生活中的例子介绍了相关的概念,还配了参考链接可以进一步学习了解。
此外,还提供了相关的例子,都有现成的链接,是用R语言写的。
这本书的作者Christoph Molnar,目前是慕尼黑大学的博士生,研究的专业就是可解释的机器学习,此前也在慕尼黑大学读了统计学硕士,主要研究将数据转换成产品。
除了这本书之外,他还有一个名为Machine Master的博客,分享关于神经网络、Python、统计学、数据处理等方面经验。
在线阅读:
https://christophm.github.io/interpretable-ml-book/index.html
GitHub:
https://github.com/christophM/interpretable-ml-book
— 完 —
AI社群 | 与优秀的人交流
小程序 | 全类别AI学习教程
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
喜欢就点「在看」吧 !