面向实践——不仅涵盖经典的中小规模案例,还介绍了一些大型项目的实现。 易读易学——以先讨论方法的动机、理论基础及背后思想,再给出完整代码示例的方式,通过现实相关问题来描述RL方法,GitHub上会实时更新书中的所有代码示例。 初学者友好——基础理论讲解深浅出,应用实例简洁易懂,源代码清晰、完整,便于读者上手实践。 侧重实际应用——每种方法都针对非常简单到非常复杂的情况行了实现。
售 价:¥
纸质售价:¥107.60购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
译者序
前言
作者简介
审校者简介
第1章 什么是强化学习
1.1 机器学习分类
1.2 强化学习的复杂性
1.3 强化学习的形式
1.4 强化学习的理论基础
1.5 总结
第2章 OpenAI Gym
2.1 剖析智能体
2.2 硬件和软件要求
2.3 OpenAI Gym API
2.4 随机CartPole智能体
2.5 Gym的额外功能:包装器和监控器
2.6 总结
第3章 使用PyTorch进行深度学习
3.1 张量
3.2 梯度
3.3 NN构建块
3.4 自定义层
3.5 最终黏合剂:损失函数和优化器
3.6 使用TensorBoard进行监控
3.7 示例:将GAN应用于Atari图像
3.8 PyTorch Ignite
3.9 总结
第4章 交叉熵方法
4.1 RL方法的分类
4.2 交叉熵方法的实践
4.3 交叉熵方法在CartPole中的应用
4.4 交叉熵方法在FrozenLake中的应用
4.5 交叉熵方法的理论背景
4.6 总结
第5章 表格学习和Bellman方程
5.1 价值、状态和最优性
5.2 最佳Bellman方程
5.3 动作的价值
5.4 价值迭代法
5.5 价值迭代实践
5.6 Q-learning在FrozenLake中的应用
5.7 总结
第6章 深度Q-network
6.1 现实的价值迭代
6.2 表格Q-learning
6.3 深度Q-learning
6.4 DQN应用于Pong游戏
6.5 可以尝试的事情
6.6 总结
第7章 高级强化学习库
7.1 为什么使用强化学习库
7.2 PTAN库
7.3 PTAN版本的CartPole解决方案
7.4 其他强化学习库
7.5 总结
第8章 DQN扩展
8.1 基础DQN
8.2 N步DQN
8.3 Double DQN
8.4 噪声网络
8.5 带优先级的回放缓冲区
8.6 Dueling DQN
8.7 Categorical DQN
8.8 组合所有方法
8.9 总结
8.10 参考文献
第9章 加速强化学习训练的方法
9.1 为什么速度很重要
9.2 基线
9.3 PyTorch中的计算图
9.4 多个环境
9.5 在不同进程中分别交互和训练
9.6 调整包装器
9.7 基准测试总结
9.8 硬核CuLE
9.9 总结
9.10 参考文献
第10章 使用强化学习进行股票交易
10.1 交易
10.2 数据
10.3 问题陈述和关键决策
10.4 交易环境
10.5 模型
10.6 训练代码
10.7 结果
10.8 可以尝试的事情
10.9 总结
第11章 策略梯度:一种替代方法
11.1 价值与策略
11.2 REINFORCE方法
11.3 REINFORCE的问题
11.4 用于CartPole的策略梯度方法
11.5 用于Pong的策略梯度方法
11.6 总结
第12章 actor-critic方法
12.1 减小方差
12.2 CartPole的方差
12.3 actor-critic
12.4 在Pong中使用A2C
12.5 在Pong中使用A2C的结果
12.6 超参调优
12.7 总结
第13章 A3C
13.1 相关性和采样效率
13.2 向A2C添加另一个A
13.3 Python中的多重处理功能
13.4 数据并行化的A3C
13.5 梯度并行化的A3C
13.6 总结
第14章 使用强化学习训练聊天机器人
14.1 聊天机器人概述
14.2 训练聊天机器人
14.3 深度NLP基础
14.4 seq2seq训练
14.5 聊天机器人示例
14.6 数据集探索
14.7 训练:交叉熵
14.8 训练:SCST
14.9 经过数据测试的模型
14.10 Telegram机器人
14.11 总结
第15章 TextWorld环境
15.1 文字冒险游戏
15.2 环境
15.3 基线DQN
15.4 命令生成模型
15.5 总结
第16章 Web导航
16.1 Web导航简介
16.2 OpenAI Universe
16.3 简单的单击方法
16.4 人类演示
16.5 添加文字描述
16.6 可以尝试的事情
16.7 总结
第17章 连续动作空间
17.1 为什么会有连续的空间
17.2 A2C方法
17.3 确定性策略梯度
17.4 分布的策略梯度
17.5 可以尝试的事情
17.6 总结
第18章 机器人技术中的强化学习
18.1 机器人与机器人学
18.2 第一个训练目标
18.3 模拟器和模型
18.4 DDPG训练和结果
18.5 控制硬件
18.6 策略实验
18.7 总结
第19章 置信域:PPO、TRPO、ACKTR及SAC
19.1 Roboschool
19.2 A2C基线
19.3 PPO
19.4 TRPO
19.5 ACKTR
19.6 SAC
19.7 总结
第20章 强化学习中的黑盒优化
20.1 黑盒方法
20.2 进化策略
20.3 遗传算法
20.4 总结
20.5 参考文献
第21章 高级探索
21.1 为什么探索很重要
21.2 ε-greedy怎么了
21.3 其他探索方式
21.4 MountainCar实验
21.5 Atari实验
21.6 总结
21.7 参考文献
第22章 超越无模型方法:想象力
22.1 基于模型的方法
22.2 想象力增强型智能体
22.3 将I2A用在Atari Breakout上
22.4 实验结果
22.5 总结
22.6 参考文献
第23章 AlphaGo Zero
23.1 棋盘游戏
23.2 AlphaGo Zero方法
23.3 四子连横棋机器人
23.4 四子连横棋的结果
23.5 总结
23.6 参考文献
第24章 离散优化中的强化学习
24.1 强化学习的名声
24.2 魔方和组合优化
24.3 最佳性与上帝的数字
24.4 魔方求解的方法
24.5 训练过程
24.6 模型应用
24.7 论文结果
24.8 代码概览
24.9 实验结果
24.10 进一步改进和实验
24.11 总结
第25章 多智能体强化学习
25.1 多智能体RL的说明
25.2 MAgent环境
25.3 老虎的深度Q-network
25.4 老虎的合作
25.5 同时训练老虎和鹿
25.6 相同actor之间的战斗
25.7 总结
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜