Attribution methods have been developed to understand the decision making process of machine learning models, especially deep neural networks, by assigning importance scores to individual features. Existing attribution methods often built upon empirical intuitions and heuristics. There still lacks a unified framework that can provide deeper understandings of their rationales, theoretical fidelity, and limitations. To bridge the gap, we present a Taylor attribution framework to theoretically characterize the fidelity of explanations. The key idea is to decompose model behaviors into first-order, high-order independent, and high-order interactive terms, which makes clearer attribution of high-order effects and complex feature interactions. Three desired properties are proposed for Taylor attributions, i.e., low model approximation error, accurate assignment of independent and interactive effects. Moreover, several popular attribution methods are mathematically reformulated under the unified Taylor attribution framework. Our theoretical investigations indicate that these attribution methods implicitly reflect high-order terms involving complex feature interdependencies. Among these methods, Integrated Gradient is the only one satisfying the proposed three desired properties. New attribution methods are proposed based on Integrated Gradient by utilizing the Taylor framework. Experimental results show that the proposed method outperforms the existing ones in model interpretations.


翻译:为了理解机器学习模型的决策过程,特别是深神经网络,已经开发了归因方法,以理解机器学习模型,特别是深神经网络的决策进程,方法是将重要分数分配给各个特点; 现有的归因方法往往以经验直觉和累进论为基础; 仍然缺乏一个能够更深入地了解其原理、理论忠诚和局限性的统一框架; 为了弥合这一差距,我们提出了一个泰勒归属框架,以理论方式描述解释的忠诚性; 关键的想法是将模型行为分解为一阶、高阶独立和高档互动术语,使高阶效应和复杂特征互动的归属更加明确; 提出了泰勒归属的三个预期属性,即低型近似误差、独立和互动效应的准确分配; 此外,在统一的泰勒归属框架下,一些流行的归因重新作出数学调整; 我们的理论调查表明,这些归因方法隐含了涉及复杂特征相互依存的高度等级术语。 在这些方法中,综合归因是唯一一种满足拟议的三种预期属性。 新的归因方法是利用泰勒模型框架以综合渐进为基础提出的。

0
下载
关闭预览

相关内容

【经典书】精通Linux,394页pdf
专知会员服务
89+阅读 · 2021年2月19日
专知会员服务
50+阅读 · 2020年12月14日
还在修改博士论文?这份《博士论文写作技巧》为你指南
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
127+阅读 · 2020年5月14日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
“CVPR 2020 接受论文列表 1470篇论文都在这了
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
4+阅读 · 2019年1月14日
VIP会员
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员