传统的自然语言处理方法具有可解释性,这些自然语言处理方法包括基于规则的方法、决策树模型、隐马尔可夫模型、逻辑回归等,也被称为白盒技术。近年来,以语言嵌入作为特征的深度学习模型(黑盒技术)不断涌现,虽然这些方法在许多情况下显著提高了模型的性能,但在另一方面这些方法使模型变得难以解释。用户难以了解数据经过怎样的过程得到所期望的结果,进而产生许多问题,比如削弱了用户与系统之间的交互(如聊天机器人、推荐系统等)。机器学习社区对可解释性重要程度的认识日益增强,并创造了一个新兴的领域,称为可解释人工智能(XAI)。而关于可解释性有多种定义,大部分相关文章的论证也因此有所差异。这里我们关注的是可解释人工智能给用户提供关于模型如何得出结果的可解释,也称为结果解释问题(outcome explanation problem)[1]。在可解释人工智能中,解释可以帮助用户建立对基于NLP的人工智能系统的信任。本文依据前人的综述[2]讨论了可解释的分类方式,介绍了能够给出可解释的技术及其具体操作,并简要地描述了每一种技术及其代表性论文。

成为VIP会员查看完整内容
75

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
专知会员服务
92+阅读 · 2021年6月23日
机器学习的可解释性
专知会员服务
68+阅读 · 2020年12月18日
专知会员服务
49+阅读 · 2020年11月17日
【干货书】可解释人工智能(xAI)方法和深度元学习模型
专知会员服务
53+阅读 · 2020年9月13日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
165+阅读 · 2020年5月27日
专知会员服务
98+阅读 · 2020年3月19日
【综述】医疗可解释人工智能综述论文
专知
32+阅读 · 2019年7月18日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
NLP实践:对话系统技术原理和应用
AI100
34+阅读 · 2019年3月20日
NLP航海图:自然语言处理相关任务简介
AINLP
8+阅读 · 2019年3月7日
自然语言处理NLP的坑到底有多大?
专知
45+阅读 · 2018年11月12日
卷积神经网络的最佳解释!
专知
12+阅读 · 2018年5月1日
Arxiv
0+阅读 · 2021年7月15日
Arxiv
30+阅读 · 2021年7月7日
Arxiv
6+阅读 · 2018年11月1日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
22+阅读 · 2018年8月3日
VIP会员
相关VIP内容
专知会员服务
92+阅读 · 2021年6月23日
机器学习的可解释性
专知会员服务
68+阅读 · 2020年12月18日
专知会员服务
49+阅读 · 2020年11月17日
【干货书】可解释人工智能(xAI)方法和深度元学习模型
专知会员服务
53+阅读 · 2020年9月13日
【哈佛大学】机器学习的黑盒解释性,52页ppt
专知会员服务
165+阅读 · 2020年5月27日
专知会员服务
98+阅读 · 2020年3月19日
相关论文
微信扫码咨询专知VIP会员