理解如何使用可解释人工智能(XAI)库,并建立对人工智能和机器学习模型的信任。本书采用问题解决的方法来解释机器学习模型及其算法。 本书从监督学习线性模型的模型解释开始,包括分类和回归模型的特征重要性、部分依赖分析和影响数据点分析。接下来,介绍了使用非线性模型和最先进的框架(如SHAP值/分数和LIME)进行监督学习的方法。使用LIME和SHAP覆盖时间序列模型的可解释性,以及与自然语言处理相关的任务,如文本分类,ELI5的情感分析和不证明。本书以使用CAPTUM框架展示特征归因、神经元归因和激活归因的复杂模型分类、类回归神经网络和深度学习模型作为结尾。 读完本书后,你将理解人工智能和机器学习模型,并能够将这些知识应用到实践中,为你的分析带来更高的准确性和透明度。
https://link.springer.com/book/10.1007/978-1-4842-9029-3
你将学到什么?
使用Python创建代码片段并解释机器学习模型 利用最新代码和敏捷实现的深度学习模型 构建、训练和解释可扩展的神经网络模型 理解神经网络模型的不同变体