为你推荐
译者序
作者简介
审校者简介
前言
第1章 神经网络的数学原理
1.1 理解线性代数
1.1.1 环境设置
1.1.2 线性代数的数据结构
1.1.3 线性代数运算
1.1.4 求解线性方程
1.1.5 奇异值分解
1.1.6 特征值分解
1.1.7 主成分分析
1.2 微积分
1.2.1 梯度
1.2.2 Hessian矩阵
1.2.3 行列式
1.3 最优化
1.4 总结
第2章 深度前馈神经网络
2.1 定义前馈神经网络
2.2 理解反向传播
2.3 在TensorFlow中实现前馈神经网络
2.4 分析Iris数据集
2.5 使用前馈网络进行图像分类
2.6 总结
第3章 神经网络的优化
3.1 什么是优化
3.2 优化器的类型
3.3 梯度下降
3.3.1 梯度下降的变体
3.3.2 优化梯度下降的算法
3.4 优化器的选择
3.5 总结
第4章 卷积神经网络
4.1 卷积神经网络概述和直观理解
4.1.1 单个卷积层的计算
4.1.2 TensorFlow中的CNN
4.2 卷积操作
4.2.1 对图像进行卷积
4.2.2 步长
4.3 池化
4.3.1 最大池化
4.3.2 示例代码
4.4 使用卷积网络进行图像分类
4.5 总结
第5章 递归神经网络
5.1 递归神经网络介绍
5.1.1 RNN实现
5.1.2 TensorFlow RNN实现
5.2 长短期记忆网络简介
5.2.1 LSTM的生命周期
5.2.2 LSTM实现
5.3 情感分析
5.3.1 词嵌入
5.3.2 使用RNN进行情感分析
5.4 总结
第6章 生成模型
6.1 生成模型简介
6.1.1 判别模型对生成模型
6.1.2 生成模型的类型
6.2 GAN
6.2.1 GAN示例
6.2.2 GAN的种类
6.3 总结
第7章 深度信念网络
7.1 理解深度信念网络
7.2 训练模型
7.3 标签预测
7.4 探索模型的准确度
7.5 DBN在MNIST数据集上的应用
7.5.1 加载数据集
7.5.2 具有256个神经元的RBM层的DBN的输入参数
7.5.3 具有256个神经元的RBM层的DBN的输出
7.6 DBN中RBM层的神经元数量的影响
7.6.1 具有512个神经元的RBM层
7.6.2 具有128个神经元的RBM层
7.6.3 准确度指标对比
7.7 具有两个RBM层的DBN
7.8 用DBN对NotMNIST数据集进行分类
7.9 总结
第8章 自编码器
8.1 自编码算法
8.2 欠完备自编码器
8.3 数据集
8.4 基本自编码器
8.4.1 自编码器的初始化
8.4.2 AutoEncoder类
8.4.3 应用于MNIST数据集的基本自编码器
8.4.4 基本自编码器的完整代码
8.4.5 基本自编码器小结
8.5 加性高斯噪声自编码器
8.5.1 自编码器类
8.5.2 应用于MNIST数据集的加性高斯自编码器
8.5.3 绘制重建的图像
8.5.4 加性高斯自编码器的完整代码
8.5.5 比较基本自编码器和加性高斯噪声自编码器
8.5.6 加性高斯噪声自编码器小结
8.6 稀疏自编码器
8.6.1 KL散度
8.6.2 稀疏自编码器的完整代码
8.6.3 应用于MNIST数据集的稀疏自编码器
8.6.4 比较稀疏自编码器和加性高斯噪声自编码器
8.7 总结
第9章 神经网络研究
9.1 神经网络中避免过拟合
9.1.1 过拟合问题阐述
9.1.2 过拟合解决方案
9.1.3 影响效果
9.2 使用神经网络进行大规模视频处理
9.2.1 分辨率改进方案
9.2.2 特征直方图基线
9.2.3 定量结果
9.3 使用双分支互向神经网络进行命名实体识别
9.3.1 命名实体识别的例子
9.3.2 定义Twinet
9.3.3 结果
9.4 双向递归神经网络
9.5 总结
第10章 开始使用TensorFlow
10.1 环境搭建
10.2 比较TensorFlow和Numpy
10.3 计算图
10.3.1 图
10.3.2 会话对象
10.3.3 变量
10.3.4 域
10.3.5 数据输入
10.3.6 占位符和输入字典
10.4 自动微分
10.5 TensorBoard
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜