本书适合初学者快速门深度学习算法和TensorFlow框架。我们已讲故事的方式向读者一步步地介绍每个核心算法,非常详细地剖析算法原理,手把手实现每个算法实战,不但让读者能够了解算法的工作原理,更重要的是教会读者如何一步步地思考问题并解决问题。具体地,我们会介绍目前深度学习的数学原理,反向传播算法,卷积神经网络,循环神经网络,对抗生产网络,自编码器,神经网络结构搜索,图卷积网络等等一系列前沿核心算法。使读者不仅可以明白原理,还能学以致用。内容讲解细致,没有数学基础的读者也能轻松门。内容全面:系统介绍了深度学习算法的理论知识和主流算法模型,如AlexNet、ResNet、DenseNet、LSTM、GRU、GAN、DQN、PPO等,详细剖析了每个算法的理论推导过程和应用场合。
售 价:¥
纸质售价:¥70.30购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
封面页
书名页
版权页
作者简介
内容简介
前言
目录
第1章 人工智能绪论
1.1 人工智能简介
1.1.1 人工智能
1.1.2 机器学习
1.1.3 神经网络与深度学习
1.2 神经网络发展简史
1.2.1 浅层神经网络
1.2.2 深度学习
1.3 深度学习特点
1.3.1 数据量
1.3.2 计算力
1.3.3 网络规模
1.3.4 通用智能
1.4 深度学习应用
1.4.1 计算机视觉
1.4.2 自然语言处理
1.4.3 强化学习
1.5 深度学习框架
1.5.1 主流框架
1.5.2 TensorFlow 2与TensorFlow1.x
1.5.3 功能演示
1.6 开发环境安装
1.6.1 Anaconda安装
1.6.2 CUDA安装
1.6.3 TensorFlow安装
1.6.4 常用编辑器安装
参考文献
第2章 回归问题
2.1 神经元模型
2.2 优化方法
2.3 线性模型实战
2.4 线性回归
参考文献
第3章 分类问题
3.1 手写数字图片数据集
3.2 模型构建
3.3 误差计算
3.4 真的解决了吗
3.5 非线性模型
3.6 表达能力
3.7 优化方法
3.8 手写数字图片识别体验
3.8.1 网络搭建
3.8.2 模型训练
参考文献
第4章 TensorFlow基础
4.1 数据类型
4.1.1 数值类型
4.1.2 字符串类型
4.1.3 布尔类型
4.2 数值精度
4.2.1 读取精度
4.2.2 类型转换
4.3 待优化张量
4.4 创建张量
4.4.1 从数组、列表对象创建
4.4.2 创建全0或全1张量
4.4.3 创建自定义数值张量
4.4.4 创建已知分布的张量
4.4.5 创建序列
4.5 张量的典型应用
4.5.1 标量
4.5.2 向量
4.5.3 矩阵
4.5.4 三维张量
4.5.5 四维张量
4.6 索引与切片
4.6.1 索引
4.6.2 切片
4.6.3 小结
4.7 维度变换
4.7.1 改变视图
4.7.2 增加、删除维度
4.7.3 交换维度
4.7.4 复制数据
4.8 Broadcasting
4.9 数学运算
4.9.1 加、减、乘、除运算
4.9.2 乘方运算
4.9.3 指数和对数运算
4.9.4 矩阵相乘运算
4.10 前向传播实战
第5章 TensorFlow进阶
5.1 合并与分割
5.1.1 合并
5.1.2 分割
5.2 数据统计
5.2.1 向量范数
5.2.2 最值、均值、和
5.3 张量比较
5.4 填充与复制
5.4.1 填充
5.4.2 复制
5.5 数据限幅
5.6 高级操作
5.6.1 tf.gather
5.6.2 tf.gather_nd
5.6.3 tf.boolean_mask
5.6.4 tf.where
5.6.5 scatter_nd
5.6.6 meshgrid
5.7 经典数据集加载
5.7.1 随机打散
5.7.2 批训练
5.7.3 预处理
5.7.4 循环训练
5.8 MNIST测试实战
第6章 神经网络
6.1 感知机
6.2 全连接层
6.2.1 张量方式实现
6.2.2 层方式实现
6.3 神经网络
6.3.1 张量方式实现
6.3.2 层方式实现
6.3.3 优化目标
6.4 激活函数
6.4.1 Sigmoid
6.4.2 ReLU
6.4.3 LeakyReLU
6.4.4 tanh
6.5 输出层设计
6.5.1 普通实数空间
6.5.2 [0,1]区间
6.5.3 [0,1]区间,和为1
6.5.4 [-1,1]
6.6 误差计算
6.6.1 均方差误差函数
6.6.2 交叉熵损失函数
6.7 神经网络类型
6.7.1 卷积神经网络
6.7.2 循环神经网络
6.7.3 注意力(机制)网络
6.7.4 图卷积神经网络
6.8 汽车油耗预测实战
6.8.1 数据集
6.8.2 创建网络
6.8.3 训练与测试
参考文献
第7章 反向传播算法
7.1 导数与梯度
7.2 导数常见性质
7.2.1 基本函数的导数
7.2.2 常用导数性质
7.2.3 导数求解实战
7.3 激活函数导数
7.3.1 Sigmoid函数导数
7.3.2 ReLU函数导数
7.3.3 LeakyReLU函数导数
7.3.4 tanh函数梯度
7.4 损失函数梯度
7.4.1 均方误差函数梯度
7.4.2 交叉熵函数梯度
7.5 全连接层梯度
7.5.1 单神经元梯度
7.5.2 全连接层梯度
7.6 链式法则
7.7 反向传播算法
7.8 Himmelblau函数优化实战
7.9 反向传播算法实战
7.9.1 数据集
7.9.2 网络层
7.9.3 网络模型
7.9.4 网络训练
7.9.5 网络性能
参考文献
第8章 Keras高层接口
8.1 常见功能模块
8.1.1 常见网络层类
8.1.2 网络容器
8.2 模型装配、训练与测试
8.2.1 模型装配
8.2.2 模型训练
8.2.3 模型测试
8.3 模型保存与加载
8.3.1 张量方式
8.3.2 网络方式
8.3.3 SavedModel方式
8.4 自定义网络简介
8.4.1 自定义网络层
8.4.2 自定义网络
8.5 模型乐园
8.6 测量工具
8.6.1 新建测量器
8.6.2 写入数据
8.6.3 读取统计信息
8.6.4 清除状态
8.6.5 准确率统计实战
8.7 可视化
8.7.1 模型端
8.7.2 浏览器端
第9章 过拟合
9.1 模型的容量
9.2 欠拟合与过拟合
9.2.1 欠拟合
9.2.2 过拟合
9.3 数据集划分
9.3.1 验证集与超参数
9.3.2 提前停止
9.4 模型设计
9.5 正则化
9.5.1 L0正则化
9.5.2 L1正则化
9.5.3 L2正则化
9.5.4 正则化效果
9.6 Dropout
9.7 数据增强
9.7.1 旋转
9.7.2 翻转
9.7.3 裁剪
9.7.4 生成数据
9.7.5 其他方式
9.8 过拟合问题实战
9.8.1 构建数据集
9.8.2 网络层数的影响
9.8.3 Dropout的影响
9.8.4 正则化的影响
参考文献
第10章 卷积神经网络
10.1 全连接网络的问题
10.1.1 局部相关性
10.1.2 权值共享
10.1.3 卷积运算
10.2 卷积神经网络
10.2.1 单通道输入和单卷积核
10.2.2 多通道输入和单卷积核
10.2.3 多通道输入、多卷积核
10.2.4 步长
10.2.5 填充
10.3 卷积层实现
10.3.1 自定义权值
10.3.2 卷积层类
10.4 LeNet-5实战
10.5 表示学习
10.6 梯度传播
10.7 池化层
10.8 BatchNorm层
10.8.1 前向传播
10.8.2 反向更新
10.8.3 BN层实现
10.9 经典卷积网络
10.9.1 AlexNet
10.9.2 VGG系列
10.9.3 GoogLeNet
10.10 CIFAR10与VGG13实战
10.11 卷积层变种
10.11.1 空洞卷积
10.11.2 转置卷积
10.11.3 分离卷积
10.12 深度残差网络
10.12.1 ResNet原理
10.12.2 ResBlock实现
10.13 DenseNet
10.14 CIFAR10与ResNet18实战
参考文献
第11章 循环神经网络
11.1 序列表示方法
11.1.1 Embedding层
11.1.2 预训练的词向量
11.2 循环神经网络
11.2.1 全连接层可行吗
11.2.2 权值共享
11.2.3 全局语义
11.2.4 循环神经网络原理
11.3 梯度传播
11.4 RNN层使用方法
11.4.1 SimpleRNNCell
11.4.2 多层SimpleRNNCell网络
11.4.3 SimpleRNN层
11.5 RNN情感分类问题实战
11.5.1 数据集
11.5.2 网络模型
11.5.3 训练与测试
11.6 梯度弥散和梯度爆炸
11.6.1 梯度裁剪
11.6.2 梯度弥散
11.7 RNN短时记忆
11.8 LSTM原理
11.8.1 遗忘门
11.8.2 输入门
11.8.3 刷新Memory
11.8.4 输出门
11.8.5 小结
11.9 LSTM层使用方法
11.9.1 LSTMCell
11.9.2 LSTM层
11.10 GRU简介
11.10.1 复位门
11.10.2 更新门
11.10.3 GRU使用方法
11.11 LSTM/GRU情感分类问题再战
11.11.1 LSTM模型
11.11.2 GRU模型
11.12 预训练的词向量
参考文献
第12章 自编码器
12.1 自编码器原理
12.2 FashionMNIST图片重建实战
12.2.1 Fashion MNIST数据集
12.2.2 编码器
12.2.3 解码器
12.2.4 自编码器
12.2.5 网络训练
12.2.6 图片重建
12.3 自编码器变种
12.3.1 Denoising Auto-Encoder
12.3.2 Dropout Auto-Encoder
12.3.3 Adversarial Auto-Encoder
12.4 变分自编码器
12.4.1 VAE原理
12.4.2 ReparameterizationTrick
12.5 VAE图片生成实战
12.5.1 VAE模型
12.5.2 Reparameterization技巧
12.5.3 网络训练
12.5.4 图片生成
参考文献
第13章 生成对抗网络
13.1 博弈学习实例
13.2 GAN原理
13.2.1 网络结构
13.2.2 网络训练
13.2.3 统一目标函数
13.3 DCGAN实战
13.3.1 动漫图片数据集
13.3.2 生成器
13.3.3 判别器
13.3.4 训练与可视化
13.4 GAN变种
13.4.1 DCGAN
13.4.2 InfoGAN
13.4.3 CycleGAN
13.4.4 WGAN
13.4.5 EqualGAN
13.4.6 Self-AttentionGAN
13.4.7 BigGAN
13.5 纳什均衡
13.5.1 判别器状态
13.5.2 生成器状态
13.5.3 纳什均衡点
13.6 GAN训练难题
13.6.1 超参数敏感
13.6.2 模式崩塌
13.7 WGAN原理
13.7.1 JS散度的缺陷
13.7.2 EM距离
13.7.3 WGAN-GP
13.8 WGAN-GP实战
参考文献
第14章 强化学习
14.1 先睹为快
14.1.1 平衡杆游戏
14.1.2 Gym平台
14.1.3 策略网络
14.1.4 梯度更新
14.1.5 平衡杆游戏实战
14.2 强化学习问题
14.2.1 马尔科夫决策过程
14.2.2 目标函数
14.3 策略梯度方法
14.3.1 REINFORCE算法
14.3.2 原始策略梯度的改进
14.3.3 带基准的REINFORCE算法
14.3.4 重要性采样
14.3.5 PPO算法
14.3.6 PPO实战
14.4 值函数方法
14.4.1 值函数
14.4.2 值函数估计
14.4.3 策略改进
14.4.4 SARSA算法
14.4.5 DQN算法
14.4.6 DQN变种
14.4.7 DQN实战
14.5 Actor-Critic方法
14.5.1 AdvantageAC算法
14.5.2 A3C算法
14.5.3 A3C实战
参考文献
第15章 自定义数据集
15.1 精灵宝可梦数据集
15.2 自定义数据集加载
15.2.1 创建编码表
15.2.2 创建样本和标签表格
15.2.3 数据集划分
15.3 宝可梦数据集实战
15.3.1 创建Dataset对象
15.3.2 数据预处理
15.3.3 创建模型
15.3.4 网络训练与测试
15.4 迁移学习
15.4.1 迁移学习原理
15.4.2 迁移学习实战
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜