卷积神经网络(CNNs)和其他深度网络在各种计算机视觉任务中实现了前所未有的突破,从图像分类到目标检测、语义分割、图像字幕、视觉问答和视觉对话。虽然这些模型具有卓越的性能,但它们缺乏可分解为单个直观组件的能力,这使得它们难以解释。因此,当今天的智能系统出现故障时,它们通常会在没有警告或解释的情况下出现令人尴尬的故障,让用户盯着一个不连贯的输出,想知道系统为什么会这样做。为了能够建立对智能系统的信任,并将其有意义地融入我们的日常生活,我们必须建立“透明”的模型,能够解释它们为什么预测它们所预测的东西。

本教程将向参与者介绍超越性能的计算机视觉模型的不同方面。Ramprasaath R. Selvaraju将专注于可解释AI方法,以及理解决策过程如何帮助修正模型的各种特征。Sara Hooker将讨论视觉模型的可信度和社会影响。Zhou Bolei将专注于解剖视觉模型的交互方面及其对视觉编辑应用的影响。Aleksander Madry将专注于视觉模型的鲁棒性。因此,在本教程中,除了在视觉模型中同样重要的测试集性能之外,还会有不同视角的统一。

成为VIP会员查看完整内容
36

相关内容

在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
28+阅读 · 2021年10月17日
专知会员服务
22+阅读 · 2021年9月20日
专知会员服务
60+阅读 · 2021年6月22日
专知会员服务
75+阅读 · 2021年5月30日
【AAAI2021】可解释图胶囊网络物体检测
专知会员服务
27+阅读 · 2021年1月4日
专知会员服务
168+阅读 · 2020年8月26日
干货 | 可解释的机器学习
AI科技评论
18+阅读 · 2019年7月3日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
新任务&数据集:视觉常识推理(VCR)
专知
50+阅读 · 2018年12月1日
这5种计算机视觉技术,刷新你的世界观
AI研习社
5+阅读 · 2018年11月27日
Arxiv
26+阅读 · 2021年2月17日
Adversarial Metric Attack for Person Re-identification
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2021年10月17日
专知会员服务
22+阅读 · 2021年9月20日
专知会员服务
60+阅读 · 2021年6月22日
专知会员服务
75+阅读 · 2021年5月30日
【AAAI2021】可解释图胶囊网络物体检测
专知会员服务
27+阅读 · 2021年1月4日
专知会员服务
168+阅读 · 2020年8月26日
微信扫码咨询专知VIP会员