万本电子书0元读

万本电子书0元读

顶部广告

深度强化学习实践(原书第2版)电子书

面向实践——不仅涵盖经典的中小规模案例,还介绍了一些大型项目的实现。 易读易学——以先讨论方法的动机、理论基础及背后思想,再给出完整代码示例的方式,通过现实相关问题来描述RL方法,GitHub上会实时更新书中的所有代码示例。 初学者友好——基础理论讲解深浅出,应用实例简洁易懂,源代码清晰、完整,便于读者上手实践。 侧重实际应用——每种方法都针对非常简单到非常复杂的情况行了实现。

售       价:¥

纸质售价:¥107.60购买纸书

57人正在读 | 0人评论 6.4

作       者:(俄罗斯)马克西姆·拉潘(Maxim Lapan)

出  版  社:机械工业出版社

出版时间:2021-07-01

字       数:35.6万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书理论与实践相结合,系统阐述强化学习的基础知识,以及如何动手编写智能体以执行一系列实际任务。通过阅读本书,读者将获得深层Q网络、策略梯度方法、连续控制问题以及高度可扩展的非梯度方法等主题领域的可行洞见,还将学会如何构建一个经过强化学习训练、价格低廉的真实硬件机器人,并通过一步步代码优化在短短30分钟的训练后解决Pong环境。此外,本书还专门介绍了强化学习的新发展,包括离散优化(解决魔方问题)、多智能体方法、Microsoft的TextWorld环境、高级探索技术等。<br/>【推荐语】<br/>面向实践——不仅涵盖经典的中小规模案例,还介绍了一些大型项目的实现。 易读易学——以先讨论方法的动机、理论基础及背后思想,再给出完整代码示例的方式,通过现实相关问题来描述RL方法,GitHub上会实时更新书中的所有代码示例。 初学者友好——基础理论讲解深浅出,应用实例简洁易懂,源代码清晰、完整,便于读者上手实践。 侧重实际应用——每种方法都针对非常简单到非常复杂的情况行了实现。 与时俱——新增6章,专门介绍了强化学习的新发展,包括离散优化(解决魔方问题)、多智能体方法、微软的TextWorld环境、高级探索技术等。<br/>【作者】<br/>马克西姆&middot;拉潘(Maxim Lapan) 一位深度学习爱好者和独立研究者。他拥有15年软件发和系统架构经验,涵盖从低级Linux内核驱动程序发到性能优化以及在数千台服务器上工作的分布式应用程序设计的方方面面。他在大数据、机器学习以及大型并行分布式HPC和非HPC系统方面拥有丰富的工作经验,他能够使用简单的词汇和生动的示例来解释复杂的事物。他当前感兴趣的领域包括深度学习的实际应用,例如,深度自然语言处理和深度强化学习。 林然 在2016年加Thoughtworks之后,主要担任全栈软件发工程师、TechLead、算法工程师等。在技术领域,他特别擅长全栈软件发、端到端交付、面向对象设计、测试驱动发、持续交付、领域驱动设计(DDD),熟悉整洁架构、微服务、DevOps、Scrum、Kanban、深度强化学习、Hadoop生态等技术和方法论。当前他在精以重构、测试驱动发和持续交付为核心的软件工程能力的基础上,正深耕于以领域驱动设计为代表的数字化架构能力、数据中台的架构能力以及以深度强化学习为代表的机器学习解决方案。同时,他曾参与翻译《Python机器学习手册》。 王薇 北京邮电大学硕士,现任Thoughtworks数据分析师。有金融、通信、医疗、娱乐等不同行业的数据类项目经验,精通多种数据挖掘算法,擅长将算法与业务相结合行数据挖掘和分析。<br/>
目录展开

译者序

前言

作者简介

审校者简介

第1章 什么是强化学习

1.1 机器学习分类

1.2 强化学习的复杂性

1.3 强化学习的形式

1.4 强化学习的理论基础

1.5 总结

第2章 OpenAI Gym

2.1 剖析智能体

2.2 硬件和软件要求

2.3 OpenAI Gym API

2.4 随机CartPole智能体

2.5 Gym的额外功能:包装器和监控器

2.6 总结

第3章 使用PyTorch进行深度学习

3.1 张量

3.2 梯度

3.3 NN构建块

3.4 自定义层

3.5 最终黏合剂:损失函数和优化器

3.6 使用TensorBoard进行监控

3.7 示例:将GAN应用于Atari图像

3.8 PyTorch Ignite

3.9 总结

第4章 交叉熵方法

4.1 RL方法的分类

4.2 交叉熵方法的实践

4.3 交叉熵方法在CartPole中的应用

4.4 交叉熵方法在FrozenLake中的应用

4.5 交叉熵方法的理论背景

4.6 总结

第5章 表格学习和Bellman方程

5.1 价值、状态和最优性

5.2 最佳Bellman方程

5.3 动作的价值

5.4 价值迭代法

5.5 价值迭代实践

5.6 Q-learning在FrozenLake中的应用

5.7 总结

第6章 深度Q-network

6.1 现实的价值迭代

6.2 表格Q-learning

6.3 深度Q-learning

6.4 DQN应用于Pong游戏

6.5 可以尝试的事情

6.6 总结

第7章 高级强化学习库

7.1 为什么使用强化学习库

7.2 PTAN库

7.3 PTAN版本的CartPole解决方案

7.4 其他强化学习库

7.5 总结

第8章 DQN扩展

8.1 基础DQN

8.2 N步DQN

8.3 Double DQN

8.4 噪声网络

8.5 带优先级的回放缓冲区

8.6 Dueling DQN

8.7 Categorical DQN

8.8 组合所有方法

8.9 总结

8.10 参考文献

第9章 加速强化学习训练的方法

9.1 为什么速度很重要

9.2 基线

9.3 PyTorch中的计算图

9.4 多个环境

9.5 在不同进程中分别交互和训练

9.6 调整包装器

9.7 基准测试总结

9.8 硬核CuLE

9.9 总结

9.10 参考文献

第10章 使用强化学习进行股票交易

10.1 交易

10.2 数据

10.3 问题陈述和关键决策

10.4 交易环境

10.5 模型

10.6 训练代码

10.7 结果

10.8 可以尝试的事情

10.9 总结

第11章 策略梯度:一种替代方法

11.1 价值与策略

11.2 REINFORCE方法

11.3 REINFORCE的问题

11.4 用于CartPole的策略梯度方法

11.5 用于Pong的策略梯度方法

11.6 总结

第12章 actor-critic方法

12.1 减小方差

12.2 CartPole的方差

12.3 actor-critic

12.4 在Pong中使用A2C

12.5 在Pong中使用A2C的结果

12.6 超参调优

12.7 总结

第13章 A3C

13.1 相关性和采样效率

13.2 向A2C添加另一个A

13.3 Python中的多重处理功能

13.4 数据并行化的A3C

13.5 梯度并行化的A3C

13.6 总结

第14章 使用强化学习训练聊天机器人

14.1 聊天机器人概述

14.2 训练聊天机器人

14.3 深度NLP基础

14.4 seq2seq训练

14.5 聊天机器人示例

14.6 数据集探索

14.7 训练:交叉熵

14.8 训练:SCST

14.9 经过数据测试的模型

14.10 Telegram机器人

14.11 总结

第15章 TextWorld环境

15.1 文字冒险游戏

15.2 环境

15.3 基线DQN

15.4 命令生成模型

15.5 总结

第16章 Web导航

16.1 Web导航简介

16.2 OpenAI Universe

16.3 简单的单击方法

16.4 人类演示

16.5 添加文字描述

16.6 可以尝试的事情

16.7 总结

第17章 连续动作空间

17.1 为什么会有连续的空间

17.2 A2C方法

17.3 确定性策略梯度

17.4 分布的策略梯度

17.5 可以尝试的事情

17.6 总结

第18章 机器人技术中的强化学习

18.1 机器人与机器人学

18.2 第一个训练目标

18.3 模拟器和模型

18.4 DDPG训练和结果

18.5 控制硬件

18.6 策略实验

18.7 总结

第19章 置信域:PPO、TRPO、ACKTR及SAC

19.1 Roboschool

19.2 A2C基线

19.3 PPO

19.4 TRPO

19.5 ACKTR

19.6 SAC

19.7 总结

第20章 强化学习中的黑盒优化

20.1 黑盒方法

20.2 进化策略

20.3 遗传算法

20.4 总结

20.5 参考文献

第21章 高级探索

21.1 为什么探索很重要

21.2 ε-greedy怎么了

21.3 其他探索方式

21.4 MountainCar实验

21.5 Atari实验

21.6 总结

21.7 参考文献

第22章 超越无模型方法:想象力

22.1 基于模型的方法

22.2 想象力增强型智能体

22.3 将I2A用在Atari Breakout上

22.4 实验结果

22.5 总结

22.6 参考文献

第23章 AlphaGo Zero

23.1 棋盘游戏

23.2 AlphaGo Zero方法

23.3 四子连横棋机器人

23.4 四子连横棋的结果

23.5 总结

23.6 参考文献

第24章 离散优化中的强化学习

24.1 强化学习的名声

24.2 魔方和组合优化

24.3 最佳性与上帝的数字

24.4 魔方求解的方法

24.5 训练过程

24.6 模型应用

24.7 论文结果

24.8 代码概览

24.9 实验结果

24.10 进一步改进和实验

24.11 总结

第25章 多智能体强化学习

25.1 多智能体RL的说明

25.2 MAgent环境

25.3 老虎的深度Q-network

25.4 老虎的合作

25.5 同时训练老虎和鹿

25.6 相同actor之间的战斗

25.7 总结

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部