Visual explanation maps enhance the trustworthiness of decisions made by deep learning models and offer valuable guidance for developing new algorithms in image recognition tasks. Class activation maps (CAM) and their variants (e.g., Grad-CAM and Relevance-CAM) have been extensively employed to explore the interpretability of softmax-based convolutional neural networks, which require a fully connected layer as the classifier for decision-making. However, these methods cannot be directly applied to metric learning models, as such models lack a fully connected layer functioning as a classifier. To address this limitation, we propose a novel visual explanation method termed Similar Feature Activation Map (SFAM). This method introduces the channel-wise contribution importance score (CIS) to measure feature importance, derived from the similarity measurement between two image embeddings. The explanation map is constructed by linearly combining the proposed importance weights with the feature map from a CNN model. Quantitative and qualitative experiments show that SFAM provides highly promising interpretable visual explanations for CNN models using Euclidean distance or cosine similarity as the similarity metric.


翻译:视觉解释图能够增强深度学习模型决策的可信度,并为图像识别任务中新算法的开发提供有价值的指导。类激活图及其变体(如Grad-CAM和Relevance-CAM)已被广泛用于探索基于softmax的卷积神经网络的解释性,这类网络需要一个全连接层作为分类器进行决策。然而,这些方法无法直接应用于度量学习模型,因为此类模型缺少充当分类器的全连接层。为解决这一局限性,我们提出了一种新颖的视觉解释方法,称为相似特征激活图。该方法引入了通道贡献重要性分数来衡量特征重要性,该分数源自两个图像嵌入之间的相似性度量。解释图通过将所提出的重要性权重与CNN模型的特征图进行线性组合而构建。定量与定性实验表明,对于使用欧氏距离或余弦相似度作为相似性度量的CNN模型,SFAM能够提供极具前景的可解释视觉解释。

0
下载
关闭预览

相关内容

【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
50+阅读 · 2021年12月20日
专知会员服务
41+阅读 · 2021年6月19日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员