Policy gradient methods are appealing in deep reinforcement learning but suffer from high variance of gradient estimate. To reduce the variance, the state value function is applied commonly. However, the effect of the state value function becomes limited in stochastic dynamic environments, where the unexpected state dynamics and rewards will increase the variance. In this paper, we propose to replace the state value function with a novel hindsight value function, which leverages the information from the future to reduce the variance of the gradient estimate for stochastic dynamic environments. Particularly, to obtain an ideally unbiased gradient estimate, we propose an information-theoretic approach, which optimizes the embeddings of the future to be independent of previous actions. In our experiments, we apply the proposed hindsight value function in stochastic dynamic environments, including discrete-action environments and continuous-action environments. Compared with the standard state value function, the proposed hindsight value function consistently reduces the variance, stabilizes the training, and improves the eventual policy.


翻译:政策梯度方法在深强化学习中具有吸引力,但差异很大。 为了减少差异,通常会应用州值函数。 但是, 州值函数的效果在随机动态环境中是有限的, 意想不到的状态动态和回报会增加差异。 在本文中, 我们提议用一个新的后视值功能取代州值函数, 该功能利用未来的信息来减少对随机动态环境的梯度估计差异。 特别是, 为了获得理想的公正梯度估计, 我们提议采用信息理论方法, 优化未来嵌入, 使之与以往行动无关。 在我们的实验中, 我们将拟议的后视值功能应用在随机动态环境中, 包括离散行动环境和连续行动环境。 与标准州值函数相比, 拟议的后视值功能会持续减少差异, 稳定培训, 并改进最终的政策 。

0
下载
关闭预览

相关内容

专知会员服务
14+阅读 · 2021年5月21日
【ICLR2021】常识人工智能,77页ppt
专知会员服务
72+阅读 · 2021年5月11日
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
【Google】梯度下降,48页ppt
专知会员服务
79+阅读 · 2020年12月5日
专知会员服务
52+阅读 · 2020年9月7日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
已删除
将门创投
5+阅读 · 2018年10月16日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2018年10月8日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
专知会员服务
14+阅读 · 2021年5月21日
【ICLR2021】常识人工智能,77页ppt
专知会员服务
72+阅读 · 2021年5月11日
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
【Google】梯度下降,48页ppt
专知会员服务
79+阅读 · 2020年12月5日
专知会员服务
52+阅读 · 2020年9月7日
一份循环神经网络RNNs简明教程,37页ppt
专知会员服务
168+阅读 · 2020年5月6日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
已删除
将门创投
5+阅读 · 2018年10月16日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员