【导读】可解释AI是现在正火热的科研和工程问题。本文介绍Arxiv上的《Explanation in Human-AI Systems》,一篇关于可解释机器学习的综述,介绍了可解释机器学习的多学科观点、历史研究、模型、关键点等。

可解释AI是现在正火热的科研和工程问题。Arxiv上一篇《Explanation in Human-AI Systems: A Literature Meta-Review Synopsis of Key Ideas and Publications and Bibliography for Explainable AI》介绍了可解释机器学习的多学科观点、历史研究、模型、关键点等,PDF大概内容组织如下:

  • 目的、范围和本文组织结构
    • 该主题的重要性
    • 本文的组织结构
  • 多学科观点
    • 哲学
      • 逻辑学观点
      • 机械学观点
      • 统计学观点
      • 相对主义者/实用主义者的观点
    • 心理学
    • 可解释性与心理学
    • 社会心理学
    • 语言心理学
    • 团队科学
    • 其他人类因素、认知系统工程和决策辅助
    • 考虑多学科观点的总结
  • 从研究到相关主题的发现
    • 以前的综述
    • 公平、透明、安全、可靠、道德
    • 信任
    • 因果推理和外展推理
    • 事件和概念的因果和机械推理
    • 类比
    • 理解解释
    • 理解的失败和局限性
    • 复杂系统的理解
    • 反事实和对比推理
    • 个体差异与动机
    • 学习和概念形成
    • 心智模型
    • 前瞻推理与规划
    • 对话式解释
    • 自解释
    • 迁移和泛化
  • 关键论文和它们的贡献
  • AI系统的可解释性:历史研究的观点
  • 心理理论、假设和模型
    • 分类学
    • 解释性与基础认知过程的关系
    • 好解释的特性
    • 可解释推理的局限和缺点
    • 解释性推理的个体差异
    • 解释的概念模型
    • 心理模型的总结
  • 可解释性AI关键概念的概要
    • 解释的价值
    • 形式和内容
    • 可解释性
    • 解释和证明
    • 候选解释
    • 心智模型
    • 预期和前瞻
    • 全局和本地解释
    • 上下文依赖
    • 对比推理
    • 一致
    • 好的和满意的解释
    • 纠正的解释
    • 信任和可靠
    • 自解释
    • 主动探索作为连续过程
    • 解释作为协作和共同适应过程
    • 测量和评价
  • 可解释性AI系统的评价:人类参与的性能评价
成为VIP会员查看完整内容
95

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
深度学习可解释性研究进展
专知会员服务
97+阅读 · 2020年6月26日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
163+阅读 · 2019年12月21日
可解释AI(XAI)工具集—DrWhy
专知
25+阅读 · 2019年6月4日
自然语言处理常识推理综述论文,60页pdf
专知
73+阅读 · 2019年4月4日
【综述】计算机视觉简介:历史、现状和发展趋势【可下载】
机器学习算法与Python学习
15+阅读 · 2018年9月21日
【计算机视觉简介】历史、现状和发展趋势
GAN生成式对抗网络
8+阅读 · 2017年11月25日
计算机视觉简介:历史、现状和发展趋势
专知
9+阅读 · 2017年11月20日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
Physical Primitive Decomposition
Arxiv
4+阅读 · 2018年9月13日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关VIP内容
深度学习可解释性研究进展
专知会员服务
97+阅读 · 2020年6月26日
【Science最新论文】XAI—可解释人工智能简述,机遇与挑战
专知会员服务
163+阅读 · 2019年12月21日
微信扫码咨询专知VIP会员