可解释人工智能(XAI)是一个新兴的研究领域,为高度复杂和不透明的机器学习(ML)模型带来了透明度。尽管近年来发展了多种方法来解释黑盒分类器的决策,但这些工具很少用于可视化目的之外。直到最近,研究人员才开始在实践中使用解释来实际改进模型。本文对实际应用XAI以获得更好的机器学习模型的技术进行了全面的概述,并系统地对这些方法进行了分类,比较了它们各自的优缺点。本文为这些方法提供了一个理论视角,并通过在toy和现实场景上的实验,实证地展示了解释如何有助于改善模型泛化能力或推理等属性。进一步讨论这些方法的潜在注意事项和缺点。我们的结论是,虽然基于XAI的模型改进甚至可以对复杂的和不容易量化的模型属性产生显著的有益影响,但这些方法需要谨慎应用,因为它们的成功取决于许多因素,例如使用的模型和数据集,或采用的解释方法。

成为VIP会员查看完整内容
58

相关内容

最新《可解释机器学习》报告,164页ppt建模阐述XAI进展
专知会员服务
105+阅读 · 2022年8月25日
自动驾驶中可解释AI的综述和未来研究方向
专知会员服务
67+阅读 · 2022年1月10日
专知会员服务
92+阅读 · 2021年9月2日
机器学习的可解释性
专知会员服务
175+阅读 · 2020年8月27日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
26+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
微信扫码咨询专知VIP会员