ICCV 2019教程《面向计算机视觉的可解释机器学习》,附280页PPT下载

2019 年 11 月 1 日 专知

【导读】CNN和RNN等深度模型在计算机视觉领域取得了很大的进展,但它们通常被视为黑匣子。为了获得更好的精度,人们不断加深网络的层数,但这使得理解模型的预测变得更加困难。本文介绍ICCV 2019的面向计算机视觉的可解释机器学习教程。

诸如深度卷积神经网络和递归神经网络之类的复杂机器学习模型最近在诸如对象/场景识别,图像字幕,视觉问题解答等广泛的计算机视觉应用中取得了长足进步。但它们通常被视为黑匣子。随着模型越来越深入地寻求更好的识别精度,变得越来越难以理解模型给出的预测及其原因。


ICCV 2019中,Andrea Vedaldi等人推出教程《面向计算机视觉的可解释机器学习》,包含了4个PPT(共280页),旨在让计算机视觉社区广泛参与计算机视觉模型的可解释和可解释的主题。该教程回顾了近期可解释机器学习在计算机视觉的进展,包括了数据和模型的可解释性和相关的方法论等。教程希望通过阐明机器学习可解释性的动机、典型方法、未来趋势和由此产生的可解释性的潜在工业应用,就机器学习可解释性这一新兴主题建立共识。


教程目录


  • 题目:Understanding Latent Semantics in GANs(基于GANs的潜在语义理解)

    报告人:Bolei Zhou

  • 题目:Understanding Models via Visualization and Attribution(基于可视化和属性模型的理解)

    报告人:Andrea Vedaldi

  • 题目:Explaining Deep Learning for Identifying Structures and Biases in Computer Vision (基于可解释深度学习计算机视觉中的结构和偏差的识别)

    报告人:Alexander Binder

  • 题目:Deep Compositional Networks(深度组合网络)

    报告人:Alan L. Yuille


完整PDF下载
请关注专知公众号(点击上方蓝色专知关注
  • 后台回复“ICCVECV” 就可以获取4份完整教程PPT的下载链接~ 


教程部分截图如下所示:


参考链接:

  • https://interpretablevision.github.io/


-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取更多AI知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加),获取专知VIP会员码,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,了解注册成为专知VIP会员
登录查看更多
32

相关内容

可解释性是指一个人能够持续预测模型结果的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。
少标签数据学习,54页ppt
专知会员服务
198+阅读 · 2020年5月22日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
128+阅读 · 2020年4月25日
WSDM 2020教程《深度贝叶斯数据挖掘》,附257页PPT下载
专知会员服务
156+阅读 · 2020年2月7日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
【EMNLP2019教程】端到端学习对话人工智能,附237页PPT下载
专知会员服务
69+阅读 · 2019年11月25日
【CVPR2019教程】视频理解中的图表示学习
专知
43+阅读 · 2019年6月20日
机器学习数学基础【附PPT下载】
专知
45+阅读 · 2018年9月17日
ECCV发布:228页教程全面理解视觉定位技术
专知
17+阅读 · 2018年9月12日
Arxiv
35+阅读 · 2020年1月2日
Tutorial on NLP-Inspired Network Embedding
Arxiv
7+阅读 · 2019年10月16日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
Top
微信扫码咨询专知VIP会员