【上海交大】可解释CNN的对象分类,Interpretable CNNs for Object Classification

2020 年 3 月 14 日 专知


本文提出了一种学习深度卷积神经网络(CNN)中可解释卷积滤波器的通用方法,用于对象分类,每个可解释滤波器都对一个特定对象部分的特征进行编码。我们的方法不需要额外的注释对象部分或纹理的监督。相反,我们使用与传统CNNs相同的训练数据。在学习过程中,我们的方法在一个高卷积层中自动分配每个可解释的过滤器,每个过滤器的对象都是某个类别的一部分。在CNN的卷积层中,这种显式的知识表示有助于人们理清CNN中所编码的逻辑,即,回答CNN从输入图像中提取什么模式并用于预测。我们使用不同结构的基准CNNs测试了我们的方法,以证明我们的方法具有广泛的适用性。实验表明,我们的可解释过滤器比传统过滤器在语义上更有意义。

https://www.zhuanzhi.ai/paper/c4e2374bfab81795f03d20bb05fab53f




专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“ICNN” 就可以获取【上海交大】可解释CNN的对象分类,Interpretable CNNs for Object Classification》论文专知下载链接


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
2

相关内容

《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
195+阅读 · 2020年2月24日
【资源推荐】AI可解释性资源汇总
专知
47+阅读 · 2019年4月24日
106页《深度CNN-目标检测》综述进展论文
专知
4+阅读 · 2018年9月30日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
7+阅读 · 2018年4月24日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
Arxiv
4+阅读 · 2017年11月14日
VIP会员
相关VIP内容
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
195+阅读 · 2020年2月24日
相关论文
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
7+阅读 · 2018年4月24日
Arxiv
21+阅读 · 2018年2月14日
Arxiv
16+阅读 · 2018年2月7日
Arxiv
4+阅读 · 2017年11月14日
Top
微信扫码咨询专知VIP会员