为你推荐
内容简介
好评袭来
前言
第一部分 基础理论篇
1 马尔可夫决策过程
1.1 马尔可夫性
1.2 一些基本定义
1.3 值函数
1.4 基于策略的值函数
1.5 贝尔曼方程
1.6 策略迭代与值迭代
2 无模型的强化学习
2.1 蒙特卡罗方法
2.1.1 蒙特卡罗方法预测状态V值
2.1.2 蒙特卡罗方法预测Q值
2.1.3 蒙特卡罗策略优化算法
2.1.4 探索和利用
2.1.5 异策略蒙特卡罗方法
2.2 时间差分方法
2.2.1 基本思想
2.2.2 Sarsa算法
2.2.3 Q-Learning算法
2.3 值函数估计和策略搜索
2.3.1 值函数估计
2.3.2 策略搜索
3 有模型的强化学习
3.1 什么是模型
3.2 基本思路
3.3 有模型方法和无模型方法的区别
3.4 典型算法
第二部分 常用算法篇
4 DQN算法
4.1 算法介绍
4.1.1 背景
4.1.2 核心技术
4.1.3 算法流程
4.2 相关改进
4.2.1 Double Q-Learning
4.2.2 优先级回放
4.2.3 Dueling Networks
4.3 实验效果与小结
5 A3C算法
5.1 Actor-Critic方法
5.2 基线减法与优势函数
5.3 博采众长的A3C算法
5.4 实验效果与小结
6 确定性策略梯度方法
6.1 随机性策略梯度与确定性策略梯度
6.2 异策略的确定性策略梯度
6.3 深度确定性策略梯度
6.4 D4PG算法
6.4.1 分布式
6.4.2 值函数分布
6.4.3 N-step TD误差和优先级的经验回放
6.5 实验效果与小结
7 PPO算法
7.1 PPO算法的核心
7.2 TRPO算法
7.3 PPO算法
7.4 实验效果与小结
7.4.1 替代函数的对比
7.4.2 在连续空间中与其他算法的对比
7.4.3 小结
8 IMPALA算法
8.1 算法架构
8.2 V-trace算法
8.3 V-trace Actor-Critic算法
8.4 实验效果与小结
8.4.1 计算性能
8.4.2 单任务训练性能
8.4.3 多任务训练性能
8.4.4 小结
第三部分 应用实践篇
9 深度强化学习在棋牌游戏中的应用
9.1 棋盘类游戏
9.1.1 AlphaGo:战胜人类围棋冠军
9.1.2 AlphaGo Zero:不使用人类数据,从头学习
9.1.3 AlphaZero:从围棋到更多
9.2 牌类游戏
9.2.1 Suphx的五个模型
9.2.2 Suphx的训练过程和算法优化
9.2.3 Suphx的线上实战表现
10 深度强化学习在电子游戏中的应用
10.1 研发游戏中的机器人
10.1.1 单机游戏
10.1.2 对战游戏
10.1.3 小结
10.2 制作游戏动画
10.3 其他应用
11 深度强化学习在推荐系统中的应用
11.1 适用的场景
11.1.1 动态变化
11.1.2 考虑长期利益
11.2 淘宝锦囊推荐中的应用
11.2.1 淘宝锦囊推荐介绍
11.2.2 问题建模与推荐框架
11.2.3 算法设计与实验
12 深度强化学习在其他领域中的应用
12.1 在无人驾驶中的应用
12.2 金融交易中的应用
12.3 信息安全中的应用
12.4 自动调参中的应用
12.5 交通控制中的应用
第四部分 总结与展望篇
13 问题与挑战
13.1 样本利用率低
13.2 奖赏函数难以设计
13.3 实验效果难复现
13.4 行为不完全可控
14 深度强化学习往何处去
14.1 未来发展和研究方向
14.1.1 有模型的方法潜力巨大
14.1.2 模仿学习
14.1.3 迁移学习的引入
14.1.4 分层强化学习
14.2 审慎乐观,大有可为
参考资料
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜