【新书】Python强化学习-基于Tensorflow与Keras和OpenAI Gym实战, 177页pdf

2020 年 1 月 17 日 专知

题目:Applied Reinforcement Learning with Python With OpenAI Gym, Tensorflow, and Keras



深入研究强化学习算法,并通过Python将它们应用到不同的用例中。这本书涵盖了重要的主题,如策略梯度和Q学习,并利用框架,如Tensorflow, Keras,和OpenAI Gym。


Python中的应用增强学习向您介绍了强化学习(RL)算法背后的理论和用于实现它们的代码您将在指导下了解OpenAI Gym的特性,从使用标准库到创建自己的环境,然后了解如何构建强化学习问题,以便研究、开发和部署基于rl的解决方案。


你将学习:

  • 用Python实现强化学习

  • 使用AI框架,如OpenAI Gym、Tensorflow和Keras

  • 通过云资源部署和培训基于增强学习的解决方案

  • 应用强化学习的实际应用


这本书是给谁看的

数据科学家、机器学习工程师和软件工程师熟悉机器学习和深度学习的概念。


地址:

https://www.springerprofessional.de/en/applied-reinforcement-learning-with-python/17098944


目录:


第1章 强化学习导论


在过去的一年里,深度学习技术的不断扩散和发展给各个行业带来了革命性的变化。毫无疑问,这个领域最令人兴奋的部分之一是强化学习(RL)。这本身往往是许多通用人工智能应用程序的基础,例如学习玩视频游戏或下棋的软件。强化学习的好处是,假设可以将问题建模为包含操作、环境和代理的框架,那么代理就可以熟悉大量的任务。假设,解决问题的范围可以从简单的游戏,更复杂的3d游戏,自动驾驶汽车教学如何挑选和减少乘客在各种不同的地方以及教一个机械手臂如何把握对象和地点在厨房柜台上。


第二章 强化学习算法


读者应该知道,我们将利用各种深度学习和强化学习的方法在这本书。然而,由于我们的重点将转移到讨论实现和这些算法如何在生产环境中工作,我们必须花一些时间来更详细地介绍算法本身。因此,本章的重点将是引导读者通过几个强化学习算法的例子,通常应用和展示他们在使用Open AI gym 不同的问题。


第三章 强化学习算法:Q学习及其变体


随着策略梯度和Actor-Critic模型的初步讨论的结束,我们现在可以讨论读者可能会发现有用的替代深度学习算法。具体来说,我们将讨论Q学习、深度Q学习以及深度确定性策略梯度。一旦我们了解了这些,我们就可以开始处理更抽象的问题,更具体的领域,这将教会用户如何处理不同任务的强化学习。


第四章 通过强化学习做市场


除了在许多书中发现的强化学习中的一些标准问题之外,最好看看那些答案既不客观也不完全解决的领域。在金融领域,尤其是强化学习领域,最好的例子之一就是做市。我们将讨论学科本身,提出一些不基于机器学习的基线方法,然后测试几种基于强化学习的方法。


第五章 自定义OpenAI强化学习环境


在我们的最后一章,我们将专注于Open AI Gym,但更重要的是尝试理解我们如何创建我们自己的自定义环境,这样我们可以处理更多的典型用例。本章的大部分内容将集中在我对开放人工智能的编程实践的建议,以及我如何编写这个软件的建议。最后,在我们完成创建环境之后,我们将继续集中精力解决问题。对于这个例子,我们将集中精力尝试创建和解决一个新的视频游戏。



便捷查看下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“ARL” 就可以获取Applied Reinforcement Learning with Python With OpenAI Gym, Tensorflow, and Keras专知下载链接索引



专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看5000+AI主题知识资料
登录查看更多
0

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
《强化学习》简介小册,24页pdf
专知会员服务
263+阅读 · 2020年4月19日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
332+阅读 · 2020年3月17日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
【新书】Pro 机器学习算法Python实现,379页pdf
专知会员服务
197+阅读 · 2020年2月11日
【强化学习】深度强化学习初学者指南
专知会员服务
178+阅读 · 2019年12月14日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
TensorFlow 2.0深度强化学习指南
云栖社区
18+阅读 · 2019年2月1日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
OpenAI强化学习实战
炼数成金订阅号
9+阅读 · 2018年5月14日
Seq2seq强化学习实战 (Pytorch, Tensorflow, Theano)
专知
15+阅读 · 2018年1月16日
【强化学习】强化学习入门以及代码实现
产业智能官
18+阅读 · 2017年9月4日
详解TensorForce: 基于TensorFlow建立强化学习API
机械鸡
5+阅读 · 2017年7月22日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
7+阅读 · 2018年12月26日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
19+阅读 · 2018年3月28日
Arxiv
3+阅读 · 2018年1月31日
VIP会员
相关VIP内容
《强化学习》简介小册,24页pdf
专知会员服务
263+阅读 · 2020年4月19日
【干货书】机器学习Python实战教程,366页pdf
专知会员服务
332+阅读 · 2020年3月17日
《强化学习—使用 Open AI、TensorFlow和Keras实现》174页pdf
专知会员服务
136+阅读 · 2020年3月1日
【新书】Pro 机器学习算法Python实现,379页pdf
专知会员服务
197+阅读 · 2020年2月11日
【强化学习】深度强化学习初学者指南
专知会员服务
178+阅读 · 2019年12月14日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
相关资讯
TensorFlow 2.0深度强化学习指南
云栖社区
18+阅读 · 2019年2月1日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
OpenAI强化学习实战
炼数成金订阅号
9+阅读 · 2018年5月14日
Seq2seq强化学习实战 (Pytorch, Tensorflow, Theano)
专知
15+阅读 · 2018年1月16日
【强化学习】强化学习入门以及代码实现
产业智能官
18+阅读 · 2017年9月4日
详解TensorForce: 基于TensorFlow建立强化学习API
机械鸡
5+阅读 · 2017年7月22日
相关论文
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
7+阅读 · 2018年12月26日
Arxiv
22+阅读 · 2018年8月30日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
19+阅读 · 2018年3月28日
Arxiv
3+阅读 · 2018年1月31日
Top
微信扫码咨询专知VIP会员