广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。

VIP内容

主题: Directions for Explainable Knowledge-Enabled Systems

摘要: 数十年来,人们对可解释人工智能领域的兴趣不断增长,并且近年来这种兴趣正在加速增长。随着人工智能模型变得更加复杂,并且通常更加不透明,并且随着复杂的机器学习技术的结合,可解释性变得越来越重要。最近,研究人员一直在研究和解决以用户为中心的可解释性,寻找解释以考虑可信度,可理解性,显性出处和上下文意识。在本章中,我们将利用对人工智能及其密切相关领域的解释性文献的调查,并利用过去的努力来生成一组解释类型,我们认为这些类型反映了当今人工智能应用对解释的扩展需求。我们定义每种类型,并提供一个示例问题,以激发对这种解释方式的需求。我们认为,这组解释类型将有助于未来的系统设计人员生成需求并确定其优先级,并进一步帮助生成更符合用户和情况需求的解释。

成为VIP会员查看完整内容
0
13
Top