VIP内容

主题: Explainable Reinforcement Learning: A Survey

摘要: 可解释的人工智能(XAI),即更透明和可解释的AI模型的开发在过去几年中获得了越来越多的关注。这是由于这样一个事实,即AI模型随着其发展为功能强大且无处不在的工具而表现出一个有害的特征:性能与透明度之间的权衡。这说明了一个事实,即模型的内部工作越复杂,就越难以实现其预测或决策。但是,特别是考虑到系统像机器学习(ML)这样的方法(强化学习(RL))在系统自动学习的情况下,显然有必要了解其决策的根本原因。由于据我们所知,目前尚无人提供可解释性强化学习(XRL)方法的概述的工作,因此本调查试图解决这一差距。我们对问题进行了简短的总结,重要术语的定义以及提议当前XRL方法的分类和评估。我们发现a)大多数XRL方法通过模仿和简化一个复杂的模型而不是设计本质上简单的模型来起作用,并且b)XRL(和XAI)方法通常忽略了方程的人为方面,而不考虑相关领域的研究像心理学或哲学。因此,需要跨学科的努力来使所生成的解释适应(非专家)人类用户,以便有效地在XRL和XAI领域中取得进步。

成为VIP会员查看完整内容
0
49
Top