诸如深度卷积神经网络和递归神经网络之类的复杂机器学习模型最近在诸如对象/场景识别,图像字幕,视觉问题解答等广泛的计算机视觉应用中取得了长足进步。但它们通常被视为黑匣子。随着模型越来越深入地寻求更好的识别精度,变得越来越难以理解模型给出的预测及其原因。

本教程的目的是让计算机视觉社区广泛参与计算机视觉模型的可解释性和可解释性的主题。我们将回顾最近的进展,我们取得了可视化,解释和解释方法,以分析数据和模型在计算机视觉。本教程的主要主题是通过阐明机器学习可解释性的动机、典型方法、未来趋势和由此产生的可解释性的潜在工业应用,就机器学习可解释性这一新兴主题建立共识。

内容目录

  • 报告人:Bolei Zhou
  • 题目:Understanding Latent Semantics in GANs(基于GANs的潜在语义理解)
  • 报告人:Andrea Vedaldi
  • 题目:Understanding Models via Visualization and Attribution(基于可视化和属性模型的理解)
  • 报告人:Alexander Binder
  • 题目: Explaining Deep Learning for Identifying Structures and Biases in Computer Vision (基于可解释深度学习计算机视觉中的结构和偏差的识别)
  • 报告人:Alan L. Yuille
  • 题目: Deep Compositional Networks(深度组合网络)
iccv19_binder_slide.pdf
iccv19_zhou_slide.pdf
iccv19_yuille_slide.pdf
28

相关内容

Andrea Vedaldi ,牛津大学工程学院副教授,新学院的导师,也是牛津大学VGG小组的成员。他的研究专注于计算机视觉方法,以自动理解图像的内容,并将其应用于组织和搜索庞大的图像和视频库以及识别图像和视频中的面部和文字的应用。他还是VLFeat计算机视觉库的主要作者。
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
193+阅读 · 2020年2月24日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
96+阅读 · 2019年10月9日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
VALSE Webinar 特别专题之产学研共舞VALSE
VALSE
7+阅读 · 2019年9月19日
已删除
将门创投
3+阅读 · 2018年4月10日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
20+阅读 · 2019年11月24日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
Arxiv
4+阅读 · 2017年11月14日
VIP会员
相关VIP内容
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
193+阅读 · 2020年2月24日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
96+阅读 · 2019年10月9日
相关资讯
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
VALSE Webinar 特别专题之产学研共舞VALSE
VALSE
7+阅读 · 2019年9月19日
已删除
将门创投
3+阅读 · 2018年4月10日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
20+阅读 · 2019年11月24日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
Arxiv
4+阅读 · 2017年11月14日
微信扫码咨询专知VIP会员