诸如深度卷积神经网络和递归神经网络之类的复杂机器学习模型最近在诸如对象/场景识别,图像字幕,视觉问题解答等广泛的计算机视觉应用中取得了长足进步。但它们通常被视为黑匣子。随着模型越来越深入地寻求更好的识别精度,变得越来越难以理解模型给出的预测及其原因。
本教程的目的是让计算机视觉社区广泛参与计算机视觉模型的可解释性和可解释性的主题。我们将回顾最近的进展,我们取得了可视化,解释和解释方法,以分析数据和模型在计算机视觉。本教程的主要主题是通过阐明机器学习可解释性的动机、典型方法、未来趋势和由此产生的可解释性的潜在工业应用,就机器学习可解释性这一新兴主题建立共识。
内容目录
- 报告人:Bolei Zhou
- 题目:Understanding Latent Semantics in GANs(基于GANs的潜在语义理解)
- 报告人:Andrea Vedaldi
- 题目:Understanding Models via Visualization and Attribution(基于可视化和属性模型的理解)
- 报告人:Alexander Binder
- 题目: Explaining Deep Learning for Identifying Structures and Biases in Computer Vision (基于可解释深度学习计算机视觉中的结构和偏差的识别)
- 报告人:Alan L. Yuille
- 题目: Deep Compositional Networks(深度组合网络)