为你推荐
前言
第1章 深度学习介绍
1.1 人工智能、机器学习与深度学习
1.2 深度学习工具介绍
1.3 PyTorch介绍
1.4 你能从本书中学到什么
第2章 PyTorch安装和快速上手
2.1 PyTorch安装
2.1.1 Anaconda安装
2.1.2 PyTorch安装
2.2 Jupyter Notebook使用
2.3 NumPy基础知识
2.3.1 基本概念
2.3.2 创建数组
2.3.3 基本运算
2.3.4 索引、切片和迭代
2.3.5 数组赋值
2.3.6 更改数组的形状
2.3.7 组合、拆分数组
2.3.8 广播
2.4 PyTorch基础知识
2.4.1 Tensor简介
2.4.2 Variable简介
2.4.3 CUDA简介
2.4.4 模型的保存与加载
2.4.5 第一个PyTorch程序
第3章 神经网络
3.1 神经元与神经网络
3.2 激活函数
3.2.1 Sigmoid
3.2.2 Tanh
3.2.3 Hard Tanh
3.2.4 ReLU
3.2.5 ReLU的扩展
3.2.6 Softmax
3.2.7 LogSoftmax
3.3 前向算法
3.4 损失函数
3.4.1 损失函数的概念
3.4.2 回归问题
3.4.3 分类问题
3.4.4 PyTorch中常用的损失函数
3.5 反向传播算法
3.6 数据的准备
3.7 PyTorch实例:单层神经网络实现
第4章 深度神经网络及训练
4.1 深度神经网络
4.1.1 神经网络为何难以训练
4.1.2 改进策略
4.2 梯度下降
4.2.1 随机梯度下降
4.2.2 Mini-Batch梯度下降
4.3 优化器
4.3.1 SGD
4.3.2 Momentum
4.3.3 AdaGrad
4.3.4 RMSProp
4.3.5 Adam
4.3.6 选择正确的优化算法
4.3.7 优化器的使用实例
4.4 正则化
4.4.1 参数规范惩罚
4.4.2 Batch Normalization
4.4.3 Dropout
4.5 PyTorch实例:深度神经网络实现
第5章 卷积神经网络
5.1 计算机视觉
5.1.1 人类视觉和计算机视觉
5.1.2 特征提取
5.1.3 数据集
5.2 卷积神经网络
5.2.1 卷积层
5.2.2 池化层
5.2.3 经典卷积神经网络
5.3 MNIST数据集上卷积神经网络的实现
第6章 嵌入与表征学习
6.1 PCA
6.1.1 PCA原理
6.1.2 PCA的PyTorch实现
6.2 自编码器
6.2.1 自编码器原理
6.2.2 PyTorch实例:自编码器实现
6.2.3 PyTorch实例:基于自编码器的图形去噪
6.3 词嵌入
6.3.1 词嵌入原理
6.3.2 PyTorch实例:基于词向量的语言模型实现
第7章 序列预测模型
7.1 序列数据处理
7.2 循环神经网络
7.3 LSTM和GRU
7.4 LSTM在自然语言处理中的应用
7.4.1 词性标注
7.4.2 情感分析
7.5 序列到序列网络
7.5.1 序列到序列网络原理
7.5.2 注意力机制
7.6 PyTorch实例:基于GRU和Attention的机器翻译
7.6.1 公共模块
7.6.2 数据处理
7.6.3 模型定义
7.6.4 训练模块定义
7.6.5 训练和模型保存
7.6.6 评估过程
第8章 PyTorch项目实战
8.1 图像识别和迁移学习——猫狗大战
8.1.1 迁移学习介绍
8.1.2 计算机视觉工具包
8.1.3 猫狗大战的PyTorch实现
8.2 文本分类
8.2.1 文本分类的介绍
8.2.2 计算机文本工具包
8.2.3 基于CNN的文本分类的PyTorch实现
8.3 语音识别系统介绍
8.3.1 语音识别介绍
8.3.2 命令词识别的PyTorch实现
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜