**可解释性AI是打开AI黑盒的解释性技术的实践指南。**本实用指南将前沿研究简化为透明和可解释的AI,提供实用的方法,您可以轻松地用Python和开源库实现。从所有主要的机器学习方法的例子,这本书演示了为什么AI的一些方法是如此的不透明,教你识别你的模型已经学习的模式,并提出了建立公平和公正的模型的最佳实践。当你完成这一任务时,你将能够提高你的AI在训练中的表现,并构建鲁棒系统来抵消偏差、数据泄漏和概念漂移带来的错误。
https://www.manning.com/books/interpretable-ai
**随着图像识别、自然语言理解和桌面游戏等领域的突破,人工智能和机器学习正在彻底改变医疗、制造、零售和金融等各个行业。**随着复杂的机器学习模型被部署到生产中,理解它们变得非常重要。缺乏深刻的理解会导致模型传播偏见,我们在刑事司法、政治、零售、面部识别和语言理解中都见过这样的例子。所有这些都对信任产生不利影响,从我的经验来看,这是企业抵制在整个企业部署人工智能的主要原因之一。解释人工智能是研究和行业的一个热门话题,因为现代机器学习算法是黑盒,没有人真正了解它们是如何工作的。此外,在GDPR的“解释权”下,欧盟现在有解释人工智能的规定。因此,对于人工智能从业者来说,可解释性人工智能是一个非常重要的话题。有一些资源可以与这个活跃的研究领域保持同步,如调研论文、博客文章和一些书籍,但没有一个单一的资源涵盖所有对实践者有价值的重要技术。也没有关于如何实现这些尖端技术的实用指南。本书旨在通过提供对可解释性技术的简化解释,以及如何在Python中使用开放的公共数据集和库实现这些技术的实用指南,来填补这一空白。本书将展示代码片段,并分享源代码,以便您跟随和再现书中的图形和视觉效果。这本书旨在为您提供实现和部署最先进的可解释性技术的实用技巧。具备概率论、统计学、线性代数、机器学习和Python的基本知识。
本书共分四部分,共九章。第一部分向你介绍可解释AI的世界:
第2部分关注黑盒模型,并理解模型如何处理输入并达到最终预测:
第3部分继续关注黑盒模型,但转向理解它们学到了什么特征或表示:
第四部分关注公平和偏见,为可解释AI铺平道路: