Common approaches to explainable AI (XAI) for deep learning focus on analyzing the importance of input features on the classification task in a given model: saliency methods like SHAP and GradCAM are used to measure the impact of spatial regions of the input image on the classification result. Combined with ground truth information about the location of the object in the input image (e.g., a binary mask), it is determined whether object pixels had a high impact on the classification result, or whether the classification focused on background pixels. The former is considered to be a sign of a healthy classifier, whereas the latter is assumed to suggest overfitting on spurious correlations. A major challenge, however, is that these intuitive interpretations are difficult to test quantitatively, and hence the output of such explanations lacks an explanation itself. One particular reason is that correlations in real-world data are difficult to avoid, and whether they are spurious or legitimate is debatable. Synthetic data in turn can facilitate to actively enable or disable correlations where desired but often lack a sufficient quantification of realism and stochastic properties. [...] Therefore, we systematically generate six synthetic datasets for the task of traffic sign recognition, which differ only in their degree of camera variation and background correlation [...] to quantify the isolated influence of background correlation, different levels of camera variation, and considered traffic sign shapes on the classification performance, as well as background feature importance. [...] Results include a quantification of when and how much background features gain importance to support the classification task based on changes in the training domain [...]. Download: synset.de/datasets/synset-signset-ger/background-effect


翻译:可解释人工智能(XAI)的常见方法侧重于分析输入特征对给定模型中分类任务的重要性:诸如SHAP和GradCAM等显著性方法用于测量输入图像空间区域对分类结果的影响。结合输入图像中物体位置的真实信息(例如二元掩码),可以确定物体像素是否对分类结果具有高影响,或者分类是否聚焦于背景像素。前者被视为健康分类器的标志,而后者则被假定表明对虚假相关性的过拟合。然而,一个主要挑战在于这些直观解释难以进行定量测试,因此此类解释的输出本身缺乏解释。一个特别原因是现实世界数据中的相关性难以避免,且这些相关性是虚假还是合理存在争议。合成数据则能够主动启用或禁用所需的相关性,但往往缺乏对真实性和随机特性的充分量化。[...]因此,我们系统性地生成了六个用于交通标志识别任务的合成数据集,这些数据集仅在相机变化程度和背景相关性上存在差异[...],以量化背景相关性、不同水平的相机变化以及所考虑的交通标志形状对分类性能和背景特征重要性的独立影响。[...]结果包括量化了训练域变化时背景特征在何时及何种程度上获得重要性以支持分类任务[...]。下载地址:synset.de/datasets/synset-signset-ger/background-effect

0
下载
关闭预览

相关内容

【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
专知会员服务
44+阅读 · 2021年7月1日
深度学习图像检索(CBIR): 十年之大综述
专知
66+阅读 · 2020年12月5日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员