模型可解释问题一向都是一个玄学问题,主要核心问题在于怎么评估一个好的模型解释器。在以往的工作中,图解释性模型往往是取一个边集合,并且将边集合得到的子图预测结果与真实标签做对比然后算一个acc,然而,本文作者则认为如果将解释结果与真实情况对比的话实际上并不是特别靠谱。因此,本文主要提出了几种更贴切于解释性方法的评估数据,包括感染检测,社区检测,负样本评估。

论文地址:https://dl.acm.org/doi/pdf/10.1145/3447548.3467283

成为VIP会员查看完整内容
32

相关内容

CIKM2021 | CD-GNN:一种跨领域的图神经网络模型
专知会员服务
28+阅读 · 2021年11月9日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
48+阅读 · 2021年6月2日
专知会员服务
131+阅读 · 2020年8月24日
最新《图神经网络模型与应用》综述论文
专知会员服务
290+阅读 · 2020年8月2日
知识图注意力网络 KGAT
图与推荐
51+阅读 · 2020年3月16日
机器学习的可解释性:因果推理和稳定学习
DataFunTalk
13+阅读 · 2020年3月3日
用模型不确定性理解模型
论智
9+阅读 · 2018年9月5日
反欺诈中所用到的机器学习模型有哪些?
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
Arxiv
6+阅读 · 2018年2月6日
VIP会员
相关VIP内容
CIKM2021 | CD-GNN:一种跨领域的图神经网络模型
专知会员服务
28+阅读 · 2021年11月9日
CIKM2021 | 异质图上的图神经网络对比预训练
专知会员服务
15+阅读 · 2021年11月8日
专知会员服务
48+阅读 · 2021年6月2日
专知会员服务
131+阅读 · 2020年8月24日
最新《图神经网络模型与应用》综述论文
专知会员服务
290+阅读 · 2020年8月2日
微信扫码咨询专知VIP会员