We study model-based offline Reinforcement Learning with general function approximation. We present an algorithm named Constrained Pessimistic Policy Optimization (CPPO) which leverages a general function class and uses a constraint to encode pessimism. Under the assumption that the ground truth model belongs to our function class, CPPO can learn with the offline data only providing partial coverage, i.e., it can learn a policy that completes against any policy that is covered by the offline data, in polynomial sample complexity with respect to the statistical complexity of the function class. We then demonstrate that this algorithmic framework can be applied to many specialized Markov Decision Processes where the additional structural assumptions can further refine the concept of partial coverage. One notable example is low-rank MDP with representation learning where the partial coverage is defined using the concept of relative condition number measured by the underlying unknown ground truth feature representation. Finally, we introduce and study the Bayesian setting in offline RL. The key benefit of Bayesian offline RL is that algorithmically, we do not need to explicitly construct pessimism or reward penalty which could be hard beyond models with linear structures. We present a posterior sampling-based incremental policy optimization algorithm (PS-PO) which proceeds by iteratively sampling a model from the posterior distribution and performing one-step incremental policy optimization inside the sampled model. Theoretically, in expectation with respect to the prior distribution, PS-PO can learn a near optimal policy under partial coverage with polynomial sample complexity.


翻译:我们用一般函数近似值研究基于模型的离线强化学习。 我们展示了名为 Constract Pessicist Policy Poptical (CPPO) 的算法, 它利用了一个普通功能级, 并使用一个约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性约束性政策)

1
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年9月13日
VIP会员
相关VIP内容
专知会员服务
51+阅读 · 2020年12月14日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员