题目

2019年必读的10篇TOP强化学习论文,My Top 10 Deep RL Papers of 2019

关键字

强化学习,深度学习,论文总结

简介

  • 大型项目

    • DeepMind’s AlphaStar (Vinyals et al, 2019)
    • OpenAI’s Solving’ of the Rubik’s Cube (OpenAI, 2019)
  • 基于模型的Rl

    • MuZero (Schrittwieser et al., 2019)
    • Dreamer (aka. PlaNet 2.0; Hafner et al., 2019)
  • 多代理RL

    • Social Influence as Intrinsic Motivation (Jaques et al., 2019)
    • Autocurricula & Emergent Tool-Use (OpenAI, 2019)
  • 学习动力

    • Non-Staggered Meta-Learner’s Dynamics (Rabinowitz, 2019)
    • Ray Interference (Schaul et al., 2019)
  • 组成和先验

    • Information Asymmetry in KL-Regularized RL (Galashov et al., 2019)
    • NPMP: Neural Probabilistic Motor Primitives (Merel et al., 2019)
  • 总结

    • 总而言之,2019年凸显了Deep RL在以前无法想象的尺寸中的巨大潜力。突出显示的大型项目距离采样效率还差得远。但是,当前寻求有效归纳偏差,先验和基于模型的方法正在解决这些问题。

作者

Robert Tjarko Lange

成为VIP会员查看完整内容
41

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
元学习(meta learning) 最新进展综述论文
专知会员服务
275+阅读 · 2020年5月8日
2019必读的十大深度强化学习论文
专知会员服务
57+阅读 · 2020年1月16日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
202+阅读 · 2020年1月13日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
生成式对抗网络GAN异常检测
专知会员服务
114+阅读 · 2019年10月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
专知会员服务
198+阅读 · 2019年8月30日
ICML2019《元学习》教程与必读论文列表
专知
41+阅读 · 2019年6月16日
近期强化学习领域论文导读(附源码)
人工智能前沿讲习班
7+阅读 · 2019年6月15日
带你读论文 | 生成对抗网络GAN论文TOP 10
微软研究院AI头条
24+阅读 · 2019年4月11日
必读!TOP10生成对抗网络GAN论文(附链接)
数据派THU
16+阅读 · 2019年3月24日
论文推荐 | 生成对抗网络GAN论文TOP 10
机器学习算法与Python学习
5+阅读 · 2019年3月20日
必读!生成对抗网络GAN论文TOP 10
全球人工智能
6+阅读 · 2019年3月19日
PlaNet 简介:用于强化学习的深度规划网络
谷歌开发者
13+阅读 · 2019年3月16日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
强化学习十大原则
专知
11+阅读 · 2018年9月17日
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Arxiv
53+阅读 · 2018年12月11日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
21+阅读 · 2018年8月30日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2017年11月20日
VIP会员
相关VIP内容
元学习(meta learning) 最新进展综述论文
专知会员服务
275+阅读 · 2020年5月8日
2019必读的十大深度强化学习论文
专知会员服务
57+阅读 · 2020年1月16日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
202+阅读 · 2020年1月13日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
生成式对抗网络GAN异常检测
专知会员服务
114+阅读 · 2019年10月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
专知会员服务
198+阅读 · 2019年8月30日
相关资讯
ICML2019《元学习》教程与必读论文列表
专知
41+阅读 · 2019年6月16日
近期强化学习领域论文导读(附源码)
人工智能前沿讲习班
7+阅读 · 2019年6月15日
带你读论文 | 生成对抗网络GAN论文TOP 10
微软研究院AI头条
24+阅读 · 2019年4月11日
必读!TOP10生成对抗网络GAN论文(附链接)
数据派THU
16+阅读 · 2019年3月24日
论文推荐 | 生成对抗网络GAN论文TOP 10
机器学习算法与Python学习
5+阅读 · 2019年3月20日
必读!生成对抗网络GAN论文TOP 10
全球人工智能
6+阅读 · 2019年3月19日
PlaNet 简介:用于强化学习的深度规划网络
谷歌开发者
13+阅读 · 2019年3月16日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
强化学习十大原则
专知
11+阅读 · 2018年9月17日
相关论文
A Survey on Bayesian Deep Learning
Arxiv
60+阅读 · 2020年7月2日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Arxiv
53+阅读 · 2018年12月11日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
21+阅读 · 2018年8月30日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2017年11月20日
微信扫码咨询专知VIP会员