记忆池」是深度强化学习的基本部件,但多年以来如何最优利用记忆池仍然未知。

在刚刚闭幕的机器学习国际顶级会议NeurIPS 2021上,南京大学人工智能学院独立完成的工作「Regret Minimization Experience Replay in Off-Policy Reinforcement Learning」,首次揭示了深度强化学习「记忆池」的最优利用方法。

https://openreview.net/forum?id=5AixAJweEyC

该工作由俞扬教授指导,其共同第一作者,2018级本科生薛正海,是南大人工智能学院的首届本科生。

成为VIP会员查看完整内容
20
0

相关内容

【NeurIPS 2021】多视角对比图聚类
专知会员服务
24+阅读 · 2021年10月31日
专知会员服务
19+阅读 · 2021年9月7日
专知会员服务
51+阅读 · 2021年8月3日
专知会员服务
25+阅读 · 2020年12月15日
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
21+阅读 · 2020年7月6日
深度强化学习策略梯度教程,53页ppt
专知会员服务
131+阅读 · 2020年2月1日
周志华教授:如何做研究与写论文?
专知会员服务
95+阅读 · 2019年10月9日
强化学习 DQN 初探之2048
DataFunTalk
4+阅读 · 2019年12月10日
ICLR 2020 高质量强化学习论文汇总
极市平台
12+阅读 · 2019年11月11日
基于逆强化学习的示教学习方法综述
计算机研究与发展
8+阅读 · 2019年2月25日
逆强化学习几篇论文笔记
CreateAMind
7+阅读 · 2018年12月13日
OpenAI官方发布:强化学习中的关键论文
专知
10+阅读 · 2018年12月12日
论强化学习的根本缺陷
AI科技评论
10+阅读 · 2018年7月24日
强化学习族谱
CreateAMind
16+阅读 · 2017年8月2日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
6+阅读 · 2018年9月25日
小贴士
相关VIP内容
【NeurIPS 2021】多视角对比图聚类
专知会员服务
24+阅读 · 2021年10月31日
专知会员服务
19+阅读 · 2021年9月7日
专知会员服务
51+阅读 · 2021年8月3日
专知会员服务
25+阅读 · 2020年12月15日
【ICML2020】用于强化学习的对比无监督表示嵌入
专知会员服务
21+阅读 · 2020年7月6日
深度强化学习策略梯度教程,53页ppt
专知会员服务
131+阅读 · 2020年2月1日
周志华教授:如何做研究与写论文?
专知会员服务
95+阅读 · 2019年10月9日
相关资讯
强化学习 DQN 初探之2048
DataFunTalk
4+阅读 · 2019年12月10日
ICLR 2020 高质量强化学习论文汇总
极市平台
12+阅读 · 2019年11月11日
基于逆强化学习的示教学习方法综述
计算机研究与发展
8+阅读 · 2019年2月25日
逆强化学习几篇论文笔记
CreateAMind
7+阅读 · 2018年12月13日
OpenAI官方发布:强化学习中的关键论文
专知
10+阅读 · 2018年12月12日
论强化学习的根本缺陷
AI科技评论
10+阅读 · 2018年7月24日
强化学习族谱
CreateAMind
16+阅读 · 2017年8月2日
微信扫码咨询专知VIP会员