ICCV 2019教程《面向计算机视觉的可解释机器学习》,附280页PPT下载

2019 年 11 月 1 日 专知
ICCV 2019教程《面向计算机视觉的可解释机器学习》,附280页PPT下载

【导读】CNN和RNN等深度模型在计算机视觉领域取得了很大的进展,但它们通常被视为黑匣子。为了获得更好的精度,人们不断加深网络的层数,但这使得理解模型的预测变得更加困难。本文介绍ICCV 2019的面向计算机视觉的可解释机器学习教程。

诸如深度卷积神经网络和递归神经网络之类的复杂机器学习模型最近在诸如对象/场景识别,图像字幕,视觉问题解答等广泛的计算机视觉应用中取得了长足进步。但它们通常被视为黑匣子。随着模型越来越深入地寻求更好的识别精度,变得越来越难以理解模型给出的预测及其原因。


ICCV 2019中,Andrea Vedaldi等人推出教程《面向计算机视觉的可解释机器学习》,包含了4个PPT(共280页),旨在让计算机视觉社区广泛参与计算机视觉模型的可解释和可解释的主题。该教程回顾了近期可解释机器学习在计算机视觉的进展,包括了数据和模型的可解释性和相关的方法论等。教程希望通过阐明机器学习可解释性的动机、典型方法、未来趋势和由此产生的可解释性的潜在工业应用,就机器学习可解释性这一新兴主题建立共识。


教程目录


  • 题目:Understanding Latent Semantics in GANs(基于GANs的潜在语义理解)

    报告人:Bolei Zhou

  • 题目:Understanding Models via Visualization and Attribution(基于可视化和属性模型的理解)

    报告人:Andrea Vedaldi

  • 题目:Explaining Deep Learning for Identifying Structures and Biases in Computer Vision (基于可解释深度学习计算机视觉中的结构和偏差的识别)

    报告人:Alexander Binder

  • 题目:Deep Compositional Networks(深度组合网络)

    报告人:Alan L. Yuille


完整PDF下载
请关注专知公众号(点击上方蓝色专知关注
  • 后台回复“ICCVECV” 就可以获取4份完整教程PPT的下载链接~ 


教程部分截图如下所示:


参考链接:

  • https://interpretablevision.github.io/


-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取更多AI知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加),获取专知VIP会员码,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,了解注册成为专知VIP会员
登录查看更多
28

相关内容

可解释性是指一个人能够持续预测模型结果的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。

主题: Exploring and Exploiting Interpretable Semantics in GANs

摘要: 诸如深度卷积神经网络和递归神经网络之类的复杂机器学习模型最近在诸如对象/场景识别,图像字幕,视觉问题解答等广泛的计算机视觉应用中取得了长足进步。但它们通常被视为黑匣子。随着模型越来越深入地寻求更好的识别精度,变得越来越难以理解模型给出的预测及其原因。在此次课程中我们将回顾我们在可视化,解释和解释方法学方面的最新进展,以分析计算机视觉中的数据和模型。本教程的主要主题是通过阐明动机,典型方法,预期趋势以及由此产生的可解释性的潜在工业应用,来就新兴的机器学习可解释性主题达成共识。这是第一个lecture,由Bolei Zhou演讲的Exploring and Exploiting Interpretable Semantics in GANs。

成为VIP会员查看完整内容
0
9

诸如深度卷积神经网络和递归神经网络之类的复杂机器学习模型最近在诸如对象/场景识别,图像字幕,视觉问题解答等广泛的计算机视觉应用中取得了长足进步。但它们通常被视为黑匣子。随着模型越来越深入地寻求更好的识别精度,变得越来越难以理解模型给出的预测及其原因。

本教程的目的是让计算机视觉社区广泛参与计算机视觉模型的可解释性和可解释性的主题。我们将回顾最近的进展,我们取得了可视化,解释和解释方法,以分析数据和模型在计算机视觉。本教程的主要主题是通过阐明机器学习可解释性的动机、典型方法、未来趋势和由此产生的可解释性的潜在工业应用,就机器学习可解释性这一新兴主题建立共识。

内容目录

  • 报告人:Bolei Zhou
  • 题目:Understanding Latent Semantics in GANs(基于GANs的潜在语义理解)
  • 报告人:Andrea Vedaldi
  • 题目:Understanding Models via Visualization and Attribution(基于可视化和属性模型的理解)
  • 报告人:Alexander Binder
  • 题目: Explaining Deep Learning for Identifying Structures and Biases in Computer Vision (基于可解释深度学习计算机视觉中的结构和偏差的识别)
  • 报告人:Alan L. Yuille
  • 题目: Deep Compositional Networks(深度组合网络)
成为VIP会员查看完整内容
iccv19_binder_slide.pdf
iccv19_zhou_slide.pdf
iccv19_yuille_slide.pdf
0
20
小贴士
相关论文
Emmanuel Bengio,Joelle Pineau,Doina Precup
7+阅读 · 2020年3月13日
A Review on Generative Adversarial Networks: Algorithms, Theory, and Applications
Jie Gui,Zhenan Sun,Yonggang Wen,Dacheng Tao,Jieping Ye
41+阅读 · 2020年1月20日
Wenwu Zhu,Xin Wang,Peng Cui
18+阅读 · 2020年1月2日
Tutorial on NLP-Inspired Network Embedding
Boaz Shmueli
6+阅读 · 2019年10月16日
Bryan Wilder,Eric Ewing,Bistra Dilkina,Milind Tambe
4+阅读 · 2019年5月31日
Claudio Gambella,Bissan Ghaddar,Joe Naoum-Sawaya
7+阅读 · 2019年1月16日
Interpretable machine learning: definitions, methods, and applications
W. James Murdoch,Chandan Singh,Karl Kumbier,Reza Abbasi-Asl,Bin Yu
12+阅读 · 2019年1月14日
Bo-Jian Hou,Zhi-Hua Zhou
16+阅读 · 2018年10月25日
Quanshi Zhang,Song-Chun Zhu
12+阅读 · 2018年2月7日
Top