成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
强化学习
关注
5379
强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
综合
百科
荟萃
VIP
热门
动态
论文
精华
Provable Reward-Agnostic Preference-Based Reinforcement Learning
Arxiv
0+阅读 · 4月17日
Towards a Research Community in Interpretable Reinforcement Learning: the InterpPol Workshop
Arxiv
0+阅读 · 4月16日
Sustainability of Data Center Digital Twins with Reinforcement Learning
Arxiv
0+阅读 · 4月16日
The False Dawn: Reevaluating Google's Reinforcement Learning for Chip Macro Placement
Arxiv
0+阅读 · 4月17日
Investigating Gender Fairness in Machine Learning-driven Personalized Care for Chronic Pain
Arxiv
0+阅读 · 4月17日
What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning
Arxiv
0+阅读 · 4月16日
Towards Multi-agent Reinforcement Learning based Traffic Signal Control through Spatio-temporal Hypergraphs
Arxiv
0+阅读 · 4月17日
Zero-Shot Reinforcement Learning from Low Quality Data
Arxiv
0+阅读 · 4月17日
Constrained Object Placement Using Reinforcement Learning
Arxiv
0+阅读 · 4月16日
Trajectory Planning using Reinforcement Learning for Interactive Overtaking Maneuvers in Autonomous Racing Scenarios
Arxiv
0+阅读 · 4月16日
Kinematics Modeling of Peroxy Free Radicals: A Deep Reinforcement Learning Approach
Arxiv
0+阅读 · 4月12日
A Note on Loss Functions and Error Compounding in Model-based Reinforcement Learning
Arxiv
0+阅读 · 4月15日
EyeFormer: Predicting Personalized Scanpaths with Transformer-Guided Reinforcement Learning
Arxiv
0+阅读 · 4月15日
Automatic re-calibration of quantum devices by reinforcement learning
Arxiv
0+阅读 · 4月16日
Offline Trajectory Generalization for Offline Reinforcement Learning
Arxiv
0+阅读 · 4月16日
参考链接
维基百科
父主题
机器学习
数据挖掘
子主题
马尔可夫决策过程
UNREAL(DRL算法)
深度强化学习
预期回报
人工智能游戏
图强化学习
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top