主题: Explainable Reinforcement Learning: A Survey

摘要: 可解释的人工智能(XAI),即更透明和可解释的AI模型的开发在过去几年中获得了越来越多的关注。这是由于这样一个事实,即AI模型随着其发展为功能强大且无处不在的工具而表现出一个有害的特征:性能与透明度之间的权衡。这说明了一个事实,即模型的内部工作越复杂,就越难以实现其预测或决策。但是,特别是考虑到系统像机器学习(ML)这样的方法(强化学习(RL))在系统自动学习的情况下,显然有必要了解其决策的根本原因。由于据我们所知,目前尚无人提供可解释性强化学习(XRL)方法的概述的工作,因此本调查试图解决这一差距。我们对问题进行了简短的总结,重要术语的定义以及提议当前XRL方法的分类和评估。我们发现a)大多数XRL方法通过模仿和简化一个复杂的模型而不是设计本质上简单的模型来起作用,并且b)XRL(和XAI)方法通常忽略了方程的人为方面,而不考虑相关领域的研究像心理学或哲学。因此,需要跨学科的努力来使所生成的解释适应(非专家)人类用户,以便有效地在XRL和XAI领域中取得进步。

成为VIP会员查看完整内容
126

相关内容

人工智能(Artificial Intelligence, AI )是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能是计算机科学的一个分支。
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
AI 最大的挑战:也许我们从根上就错了
InfoQ
5+阅读 · 2019年6月14日
AutoML研究综述:让AI学习设计AI
机器之心
12+阅读 · 2019年5月7日
Reinforcement Learning: An Introduction 2018第二版 500页
CreateAMind
11+阅读 · 2018年4月27日
【深度】可解释性与deep learning的发展
机器学习研究会
6+阅读 · 2017年10月15日
独家 | 一文读懂优化算法
数据派THU
8+阅读 · 2017年9月15日
A Survey on Bayesian Deep Learning
Arxiv
59+阅读 · 2020年7月2日
Arxiv
7+阅读 · 2018年12月26日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
6+阅读 · 2018年1月11日
VIP会员
相关VIP内容
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
微信扫码咨询专知VIP会员