逆向强化学习(Inverse Reinforcement Learning, IRL)也称为逆向最优控制(Inverse Optimal Control, IOC),是强化学习和模仿学习领域的一种重要研究方法,该方法通过专家样本求解奖赏函数,并根据所得奖赏函数求解最优策略,以达到模仿专家策略的目的.近年来,逆向强化学习在模仿学习领域取得了丰富的研究成果,已广泛应用于汽车导航、路径推荐和机器人最优控制等问题中.该文首先介绍了逆向强化学习理论基础,然后从奖赏函数构建方式出发,讨论分析基于线性奖赏函数和非线性奖赏函数的逆向强化学习算法,包括最大边际逆向强化学习算法、最大熵逆向强化学习算法、最大熵深度逆向强化学习算法和生成对抗模仿学习等.随后从逆向强化学习领域的前沿研究方向进行综述,比较和分析该领域代表性算法,包括状态动作信息不完全逆向强化学习、多智能体逆向强化学习、示范样本非最优逆向强化学习和指导逆向强化学习等.最后总结分析当前存在的关键问题,并从理论和应用方面探讨了未来的发展方向.

https://www.jos.org.cn/josen/article/abstract/6671

**1 引言 **

逆向强化学习(Inverse Reinforcement Learning, 简称 IRL)作为一种学习专家策略的模仿学习算法,已成功应用于汽车导航[1]、路径规划[2,3]、行为预测[4-8]和机器最优控制[9-11]等领域.近年来,鉴于以上任务的复杂性和应用前景,逆向强化学习已成为强化学习领域和模仿学习领域的研究热点.本文旨在梳理逆向强化学习发展脉络,介绍前沿研究进展和分析关键问题. 逆向强化学习方法将模仿学习问题抽象为马尔可夫决策过程,应用强化学习方法模仿专家策略.与强化学习依据奖赏函数求解最优策略不同,逆向强化学习方法包含依据专家样本求解奖赏函数过程,因其与强化学习方法学习过程相反,被称为逆向强化学习算法. 强化学习(Reinforcement Learning, 简称 RL)起源于最优控制领域,是一种通过与环境交互求解最优策略的方法,广泛应用于工业制造[12]、机器人最优控制[13]、游戏博弈[14,15]、优化与调度[16-18]和仿真模拟[19]等领域.强化学习方法基于马尔可夫决策过程,通过智能体与环境交互获得奖赏,并根据累积奖赏更新策略以选取最优动作,具有对环境探索的自学能力.算法在执行过程中持续探索环境和利用环境反馈信息,使智能体的策略逐步迭代收敛至最优策略.此外,强化学习方法中的奖赏函数由人工设定,作为设计人员与智能体之间的沟通媒介,奖赏函数中蕴含设计人员所期望目标的全部信息,而智能体通过与环境交互获得奖赏的方式“解码”奖赏函数, 完成期望任务.

模仿学习是一种通过专家样本模仿专家策略的方法[20,21],包括行为克隆方法(Behavioral Cloning, 简称BC)和逆向强化学习方法. 行为克隆[22,23]方法直接学习状态或标签到动作或路径的映射,无需建立奖赏函数,一般通过监督学习方法实现.对于小状态空间问题,行为克隆是一种十分高效的方法.但在连续状态-动作空间或大状态-动作空间问题中,因为行为克隆方法只考虑在每个状态采取的动作与专家样本是否匹配,不考虑未来收益,所以若与环境交互路径很长且专家样本不足,则行为克隆方法会将细微误差在连续决策中逐步放大,甚至环境发生一点变化,都会极大影响算法性能,这被称为行为克隆方法中的复合误差问题[24,25]. 逆向强化学习也被称为逆向最优控制[26,27](Inverse Optimal Control, 简称 IOC),最初由Russell 于1998年提出[28].与强化学习方法相同,逆向强化学习方法基于马尔可夫决策过程,通过智能体与环境交互求解最优策略. 在一般强化学习问题中,奖赏函数由人工设定,而在许多复杂问题中,很难设计出精确的奖赏函数,此时却很容易通过专家策略采样专家样本,例如汽车驾驶[29]和操纵机器打结等[30,31].针对这类问题,逆向强化学习方法抛弃人工设定奖赏函数过程,直接通过专家样本重建奖赏函数,并依据所得奖赏函数求解最优策略,达到模仿专家策略的目的[32]. 相比行为克隆方法,逆向强化学习方法具有更好的泛化性和鲁棒性[33,34],若环境改变或在专家样本状态-动作空间之外,仍可保证算法性能.此外,由于逆向强化学习方法通过最大化累积奖赏值求解最优策略,所以逆向强化学习方法方法不存在行为克隆方法中的复合误差问题.

逆向强化学习方法的奖赏函数最初为线性函数,由 Ng 等人于 2000 年提出[35],此后基于学徒学习的逆向强化学习算法[36]、最大边际算法[37]、最大熵算法[38]和相对熵算法[39]等被相继提出.这类算法假设状态或状态-动作对特征的线性组合为奖赏函数,算法的最终目标为求解每个特征的系数,当特征系数确定,奖赏函数随之确定.逆向强化学习方法中多个奖赏函数均可求解专家策略,这被称为非适定(ill-posed)问题,算法仍需在满足条件的奖赏函数集合中选择最优解.Ng 等人基于启发式搜索思想要求奖赏函数满足约束条件的同时还需满足额外目标函数,这一思想可用线性规划或二次规划数学模型表示.因此,早期逆向强化学习方法使用线性规划或二次规划方法求解奖赏函数,且奖赏函数为线性基函数,依据不同目标函数,基于基函数的算法分为三类:基于最大边际思想的算法、基于概率模型思想的算法和基于结构化分类思想的算法.上述三类算法要求奖赏函数满足基本约束条件,在此基础之上,基于最大边际思想的算法要求奖赏函数尽可能区分专家策略(最优策略)与次优策略,即专家策略平均回报尽可能大于次优策略平均回报.基于概率模型思想的算法将问题抽象为概率模型,每个奖赏函数对应的最优路径(trajectory)都满足各自的概率分布[40].因此最大熵算法要求奖赏函数在满足基本约束条件的同时,保证其所对应最优路径概率分布的熵值最大,类似还有基于交叉熵[41,42]、相对熵和最大似然估计[43]等算法.基于结构化分类思想的算法通过多个线性参数化分类器求解奖赏函数,以使每个状态的累积回报尽可能大.总体来说,基于线性奖赏函数的逆向强化学习算法在一些小状态空间和离散状态空间问题中取得了不错的效果,且应用到汽车导航问题中.这类算法除相对熵算法外都是基于模型的算法,因此需要提供环境模型(状态转移概率),在一定程度上限制了算法的应用.另外,由于所有的奖赏函数都是特征的线性组合,导致以下问题:(1)特征需要凭借人的经验来选取,增加了算法的难度和不稳定性;(2)线性奖赏函数形式简单,存在表达能力有限的问题.

为克服线性奖赏函数的局限性,基于非线性奖赏函数的逆向强化学习算法被提出,包括基于贝叶斯的非参数化特征构建算法[44]和基于神经网络的非线性逆向强化学习算法.基于贝叶斯的非参数化特征构建算法用高斯过程[45](Gaussian Processes, 简称GPs)构建非线性奖赏函数,在一定程度上解决了线性奖赏函数表征能力不足的问题,但同时也需要提供大量专家样本.传统逆向强化学习算法(例如学徒学习算法、最大边际算法、最大熵算法、相对熵算法)与神经网络结合,将神经网络作为奖赏函数,取得了很好的效果.这类算法可以通过神经网络自动提取状态特征,具有更强的表征能力.目前,在游戏、自动驾驶、路径导航和机器控制领域取得了一定成果.

Ho等人将在计算机视觉领域取得优秀成果的生成对抗网络[46](Generative Adversarial Networks, 简称GAN)与逆向强化学习结合,提出生成对抗模仿学习算法[47](Generative Adversarial Imitation Learning, 简称GAIL).该算法将逆向强化学习过程抽象为求解奖赏函数的IRL过程和求解最优策略的RL过程,并指出两个过程的交替迭代为零和博弈问题,因此可用生成对抗思想解决.相比非线性逆向强化学习算法,GAIL具有更小的计算量和更高的性能,但也存在训练不稳定、模态崩塌[48](mode collapse)和生成样本利用率低的问题[49,50]. 近年来,逆向强化学习方法在机器最优控制领域、状态动作信息不完全领域、多智能体领域和提高专家样本利用率等领域都取得了进展,也有学者将专家样本最优性假设进行扩展,解决专家样本非最优问题[51-53],此外还有指导逆向强化学习方法研究等[54-60]. 逆向强化学习方法发展至今,已成为模仿学习方法中最重要的实现方式.本文将基于以上分类,梳理逆向强化学习的发展脉络,分析其发展的内部机理,探讨其优势和不足,并总结未来可能的发展方向.本文的结构框架如图 1 所示,下文将按照图 1 结构,介绍逆向强化学习领域的关键论文和最新进展.

2 逆向强化学习研究进展

2.1 基于线性奖赏函数的逆向强化学习

在逆向强化学习方法发展初期,用状态-动作对特征的线性组合表示奖赏函数.因为奖赏函数的不确定性, 传统逆向强化学习方法致力于通过启发式搜索选择最优奖赏函数,依据其不同实现方式,分为最大边际方法、概率模型方法和结构化分类方法.本节从基于线性奖赏函数的逆向强化学习方法出发,介绍传统逆向强化学习算法对奖赏函数的初选和择优问题的解决.

2.2 基于非线性奖赏函数的逆向强化学习

在传统逆向强化学习算法中,由于线性奖赏函数表达能力不足,限制了算法的应用.在解决连续高维状态-动作空间问题时,线性奖赏函数难以准确表征真实奖赏函数.因此需要将线性奖赏函数变为非线性函数,提高其表达能力[84,85]. 另外,算法设计时,特征需凭借设计人员经验选取,所选特征的范围和正确性直接影响算法性能[1],增加了算法的难度和不稳定性.

表 1 将对前 9 章提到的主要算法以表格形式分析比较,介绍算法相比之前算法的创新点,并分析算法的优缺点和关键特性,例如:奖赏函数的类型、奖赏函数的选择方式、基于模型算法(model-based)或无模型算法(model-free)、算法复杂度和样本利用率等.

成为VIP会员查看完整内容
46

相关内容

模仿学习综述:传统与新进展
专知会员服务
50+阅读 · 2023年2月18日
基于课程学习的深度强化学习研究综述
专知会员服务
53+阅读 · 2022年11月28日
基于通信的多智能体强化学习进展综述
专知会员服务
96+阅读 · 2022年11月12日
基于模型的强化学习综述
专知会员服务
132+阅读 · 2022年7月13日
基于强化学习的推荐研究综述
专知会员服务
79+阅读 · 2021年10月21日
专知会员服务
57+阅读 · 2021年4月22日
专知会员服务
126+阅读 · 2021年2月17日
专知会员服务
102+阅读 · 2020年12月31日
专知会员服务
110+阅读 · 2020年12月17日
「基于课程学习的深度强化学习」研究综述
「基于通信的多智能体强化学习」 进展综述
论文浅尝-综述 | 基于强化学习的知识图谱综述
开放知识图谱
2+阅读 · 2022年9月9日
基于强化学习的知识图谱综述
专知
6+阅读 · 2022年8月20日
基于模型的强化学习综述
专知
17+阅读 · 2022年7月13日
「强化学习可解释性」最新2022综述
深度强化学习实验室
3+阅读 · 2022年1月17日
基于逆强化学习的示教学习方法综述
计算机研究与发展
12+阅读 · 2019年2月25日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
43+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年2月16日
Arxiv
0+阅读 · 2023年2月15日
Arxiv
27+阅读 · 2023年2月10日
Arxiv
12+阅读 · 2021年7月26日
VIP会员
相关VIP内容
模仿学习综述:传统与新进展
专知会员服务
50+阅读 · 2023年2月18日
基于课程学习的深度强化学习研究综述
专知会员服务
53+阅读 · 2022年11月28日
基于通信的多智能体强化学习进展综述
专知会员服务
96+阅读 · 2022年11月12日
基于模型的强化学习综述
专知会员服务
132+阅读 · 2022年7月13日
基于强化学习的推荐研究综述
专知会员服务
79+阅读 · 2021年10月21日
专知会员服务
57+阅读 · 2021年4月22日
专知会员服务
126+阅读 · 2021年2月17日
专知会员服务
102+阅读 · 2020年12月31日
专知会员服务
110+阅读 · 2020年12月17日
相关资讯
「基于课程学习的深度强化学习」研究综述
「基于通信的多智能体强化学习」 进展综述
论文浅尝-综述 | 基于强化学习的知识图谱综述
开放知识图谱
2+阅读 · 2022年9月9日
基于强化学习的知识图谱综述
专知
6+阅读 · 2022年8月20日
基于模型的强化学习综述
专知
17+阅读 · 2022年7月13日
「强化学习可解释性」最新2022综述
深度强化学习实验室
3+阅读 · 2022年1月17日
基于逆强化学习的示教学习方法综述
计算机研究与发展
12+阅读 · 2019年2月25日
相关基金
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
43+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员