ICCV 2019教程《面向计算机视觉的可解释机器学习》,附280页PPT下载

【导读】CNN和RNN等深度模型在计算机视觉领域取得了很大的进展,但它们通常被视为黑匣子。为了获得更好的精度,人们不断加深网络的层数,但这使得理解模型的预测变得更加困难。本文介绍ICCV 2019的面向计算机视觉的可解释机器学习教程。

诸如深度卷积神经网络和递归神经网络之类的复杂机器学习模型最近在诸如对象/场景识别,图像字幕,视觉问题解答等广泛的计算机视觉应用中取得了长足进步。但它们通常被视为黑匣子。随着模型越来越深入地寻求更好的识别精度,变得越来越难以理解模型给出的预测及其原因。


ICCV 2019中,Andrea Vedaldi等人推出教程《面向计算机视觉的可解释机器学习》,包含了4个PPT(共280页),旨在让计算机视觉社区广泛参与计算机视觉模型的可解释和可解释的主题。该教程回顾了近期可解释机器学习在计算机视觉的进展,包括了数据和模型的可解释性和相关的方法论等。教程希望通过阐明机器学习可解释性的动机、典型方法、未来趋势和由此产生的可解释性的潜在工业应用,就机器学习可解释性这一新兴主题建立共识。


教程目录


  • 题目:Understanding Latent Semantics in GANs(基于GANs的潜在语义理解)

    报告人:Bolei Zhou

  • 题目:Understanding Models via Visualization and Attribution(基于可视化和属性模型的理解)

    报告人:Andrea Vedaldi

  • 题目:Explaining Deep Learning for Identifying Structures and Biases in Computer Vision (基于可解释深度学习计算机视觉中的结构和偏差的识别)

    报告人:Alexander Binder

  • 题目:Deep Compositional Networks(深度组合网络)

    报告人:Alan L. Yuille


完整PDF下载
请关注专知公众号(点击上方蓝色专知关注
  • 后台回复“ICCVECV” 就可以获取4份完整教程PPT的下载链接~ 


教程部分截图如下所示:


参考链接:

  • https://interpretablevision.github.io/


-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取更多AI知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加),获取专知VIP会员码,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,了解注册成为专知VIP会员
展开全文
Top
微信扫码咨询专知VIP会员