内容全面:系统介绍了深度学习算法的基础理论和主流算法模型,如AlexNet、ResNet、BP、LSTM、GAN、CNN等,详细剖析了每个算法的理论推导过程和应用场合。 实用性强:采用PyTorch 2.x最新框架行实战,通过大量案例实现了计算机视觉、自然语言处理、AIGC等方向的主流算法,读者能够通过实际项目来理解算法思想。 资源丰富:源了全部课程源代码、课件、代码,本书Github仓库已收获超3000个Star数,并被“机器之心”、“量子位”等媒体报导。
售 价:¥
纸质售价:¥94.10购买纸书
6.7
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐

封面页
书名页
版权页
内容简介
作者简介
前言
目录
第1章 人工智能绪论
1.1 人工智能
1.1.1 人工智能简介
1.1.2 机器学习
1.1.3 神经网络与深度学习
1.2 神经网络发展简史
1.2.1 浅层神经网络
1.2.2 深度学习
1.3 深度学习特点
1.3.1 数据量
1.3.2 算力
1.3.3 网络规模
1.3.4 通用智能
1.4 深度学习应用
1.4.1 计算机视觉
1.4.2 自然语言处理
1.4.3 强化学习
1.5 深度学习框架
1.5.1 主流框架
1.5.2 静态图和动态图
1.5.3 功能演示
1.6 开发环境安装
1.6.1 安装Anaconda
1.6.2 安装CUDA
1.6.3 安装PyTorch
1.6.4 常用编辑器安装
第2章 回归问题
2.1 神经元模型
2.2 优化方法
2.3 线性模型实战
2.4 线性回归
第3章 分类问题
3.1 手写数字图片数据集
3.2 模型构建
3.3 误差计算
3.4 真的解决了吗
3.5 非线性模型
3.6 表达能力
3.7 优化方法
3.8 手写数字图片识别体验
3.8.1 网络搭建
3.8.2 模型训练
第4章 PyTorch基础
4.1 数据类型
4.1.1 数值类型
4.1.2 布尔类型
4.2 数值精度
4.2.1 读取精度
4.2.2 类型转换
4.3 待优化张量
4.4 创建张量
4.4.1 从数组、列表对象创建
4.4.2 创建全0或全1张量
4.4.3 创建自定义数值张量
4.4.4 创建已知分布的张量
4.4.5 创建序列
4.5 张量的典型应用
4.5.1 标量
4.5.2 向量
4.5.3 矩阵
4.5.4 三维张量
4.5.5 四维张量
4.6 索引与切片
4.6.1 索引
4.6.2 切片
4.6.3 小结
4.7 维度变换
4.7.1 改变视图
4.7.2 增加和删除维度
4.7.3 交换维度
4.7.4 复制数据
4.8 Broadcasting机制
4.9 数学运算
4.9.1 加、减、乘、除运算
4.9.2 乘方运算
4.9.3 指数和对数运算
4.9.4 矩阵相乘运算
4.10 前向传播实战
第5章 PyTorch进阶
5.1 合并与分割
5.1.1 合并
5.1.2 分割
5.2 数据统计
5.2.1 向量范数
5.2.2 最值、均值、和
5.3 张量比较
5.4 填充与复制
5.4.1 填充
5.4.2 复制
5.5 数据限幅
5.6 高级操作
5.6.1 索引采样
5.6.2 掩码采样
5.6.3 gather采样函数
5.6.4 where采样函数
5.6.5 scatter写入函数
5.6.6 meshgrid网格函数
5.7 经典数据集加载
5.7.1 预处理
5.7.2 随机打散
5.7.3 批训练
5.7.4 循环训练
5.8 MNIST测试实战
第6章 神经网络
6.1 感知机
6.2 全连接层
6.2.1 张量方式实现
6.2.2 层方式实现
6.3 神经网络
6.3.1 张量方式实现
6.3.2 层方式实现
6.3.3 优化目标
6.4 激活函数
6.4.1 Sigmoid
6.4.2 ReLU
6.4.3 LeakyReLU
6.4.4 tanh
6.5 输出层设计
6.5.1 普通实数空间
6.5.2 [0,1]区间
6.5.3 [0,1]区间,和为1
6.5.4 (-1,1)区间
6.6 误差计算
6.6.1 均方误差函数
6.6.2 交叉熵误差函数
6.7 神经网络类型
6.7.1 卷积神经网络
6.7.2 循环神经网络
6.7.3 注意力(机制)网络
6.7.4 图卷积神经网络
6.8 汽车油耗预测实战
6.8.1 数据集
6.8.2 创建网络
6.8.3 训练与测试
第7章 反向传播算法
7.1 导数与梯度
7.2 导数常见性质
7.2.1 基本函数的导数
7.2.2 常用导数性质
7.2.3 导数求解实战
7.3 激活函数导数
7.3.1 Sigmoid函数导数
7.3.2 ReLU函数导数
7.3.3 LeakyReLU函数导数
7.3.4 tanh函数梯度
7.4 损失函数梯度
7.4.1 均方误差函数梯度
7.4.2 交叉熵损失函数梯度
7.5 全连接层梯度
7.5.1 单神经元梯度
7.5.2 全连接层梯度
7.6 链式法则
7.7 反向传播算法
7.8 Himmelblau函数优化实战
7.9 反向传播算法实战
7.9.1 数据集
7.9.2 网络层
7.9.3 网络模型
7.9.4 网络训练
7.9.5 网络性能
第8章 PyTorch高级用法
8.1 常见功能模块
8.1.1 常见网络层类
8.1.2 网络容器
8.2 模型创建、训练与测试
8.2.1 模型创建
8.2.2 模型训练
8.2.3 模型测试
8.3 模型保存与加载
8.3.1 张量方式
8.3.2 网络方式
8.4 自定义网络
8.4.1 自定义网络层
8.4.2 自定义网络
8.5 模型乐园
8.5.1 加载模型
8.5.2 微调模型
8.6 测量工具
8.6.1 新建测量器
8.6.2 写入数据
8.6.3 统计数据
8.6.4 清除状态
8.6.5 准确率统计实战
8.7 可视化
8.7.1 模型端
8.7.2 浏览器端
第9章 过拟合
9.1 模型的容量
9.2 欠拟合与过拟合
9.2.1 欠拟合
9.2.2 过拟合
9.3 数据集划分
9.3.1 验证集与超参数
9.3.2 提前停止
9.4 模型设计
9.5 正则化
9.5.1 L0正则化
9.5.2 L1正则化
9.5.3 L2正则化
9.5.4 正则化效果
9.6 Dropout
9.7 数据增强
9.7.1 随机旋转
9.7.2 随机翻转
9.7.3 随机裁剪
9.7.4 生成数据
9.7.5 其他方式
9.8 过拟合问题实战
9.8.1 构建数据集
9.8.2 Pytorch lightning库
9.8.3 网络层数的影响
9.8.4 Dropout的影响
9.8.5 正则化的影响
第10章 卷积神经网络
10.1 全连接网络的问题
10.1.1 局部相关性
10.1.2 权值共享
10.1.3 卷积运算
10.2 卷积神经网络
10.2.1 单通道输入和单卷积核
10.2.2 多通道输入和单卷积核
10.2.3 多通道输入和多卷积核
10.2.4 步长
10.2.5 填充
10.3 卷积层实现
10.3.1 自定义权值
10.3.2 卷积层类
10.4 LeNet-5实战
10.5 表示学习
10.6 梯度传播
10.7 池化层
10.8 BatchNorm层
10.8.1 前向传播
10.8.2 反向更新
10.8.3 BN层实现
10.9 经典卷积网络
10.9.1 AlexNet
10.9.2 VGG系列
10.9.3 GoogLeNet
10.10 VGG13实战
10.10.1 CIFAR数据集
10.10.2 VGG模型
10.11 卷积层变种
10.11.1 空洞卷积
10.11.2 转置卷积
10.11.3 分离卷积
10.12 深度残差网络
10.12.1 ResNet原理
10.12.2 ResBlock实现
10.13 DenseNet
10.14 ResNet18实战
第11章 循环神经网络
11.1 序列表示方法
11.1.1 Embedding层
11.1.2 预训练的词向量
11.2 循环神经网络
11.2.1 全连接层可行吗
11.2.2 共享权值
11.2.3 全局语义
11.2.4 循环神经网络
11.3 梯度传播
11.4 RNN层使用方法
11.4.1 RNNCell
11.4.2 多层RNNCell网络
11.4.3 RNN层
11.5 RNN情感分类问题实战
11.5.1 数据集
11.5.2 网络模型
11.5.3 训练与测试
11.6 梯度弥散和梯度爆炸
11.6.1 梯度裁剪
11.6.2 梯度弥散
11.7 RNN短时记忆
11.8 LSTM原理
11.8.1 遗忘门
11.8.2 输入门
11.8.3 刷新Memory
11.8.4 输出门
11.8.5 小结
11.9 LSTM层使用方法
11.9.1 LSTMCell
11.9.2 LSTM层
11.10 GRU简介
11.10.1 复位门
11.10.2 更新门
11.10.3 GRU使用方法
11.11 LSTM/GRU情感分类问题再战
11.11.1 LSTM模型
11.11.2 GRU模型
第12章 自编码器
12.1 自编码器原理
12.2 Fashion MNIST图片重建实战
12.2.1 Fashion MNIST数据集
12.2.2 编码器
12.2.3 解码器
12.2.4 自编码器
12.2.5 网络训练
12.2.6 图片重建
12.3 自编码器变种
12.3.1 Denoising Auto-Encoder
12.3.2 Dropout Auto-Encoder
12.3.3 Adversarial Auto-Encoder
12.4 变分自编码器
12.4.1 VAE原理
12.4.2 Reparameterization Trick
12.5 VAE图片生成实战
12.5.1 VAE模型
12.5.2 Reparameterization函数
12.5.3 网络训练
12.5.4 图片生成
第13章 生成对抗网络
13.1 博弈学习实例
13.2 GAN原理
13.2.1 网络结构
13.2.2 网络训练
13.2.3 统一目标函数
13.3 DCGAN实战
13.3.1 动漫图片数据集
13.3.2 生成器
13.3.3 判别器
13.3.4 训练与可视化
13.4 GAN变种
13.4.1 DCGAN
13.4.2 InfoGAN
13.4.3 CycleGAN
13.4.4 WGAN
13.4.5 Equal GAN
13.4.6 Self-Attention GAN
13.4.7 BigGAN
13.5 纳什均衡
13.5.1 判别器状态
13.5.2 生成器状态
13.5.3 纳什均衡点
13.6 GAN训练难题
13.6.1 超参数敏感
13.6.2 模式崩塌
13.7 WGAN原理
13.7.1 JS散度的缺陷
13.7.2 EM距离
13.7.3 WGAN-GP
13.8 WGAN-GP实战
第14章 自定义数据集
14.1 精灵宝可梦数据集
14.2 自定义数据集加载
14.2.1 创建编码表
14.2.2 创建样本和标签表格
14.2.3 数据集划分
14.3 宝可梦数据集实战
14.3.1 创建Dataset对象
14.3.2 样本预处理
14.3.3 创建模型
14.3.4 网络训练与测试
14.4 迁移学习
14.4.1 迁移学习原理
14.4.2 迁移学习实战
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜