万本电子书0元读

万本电子书0元读

顶部广告

PyTorch深度学习——深入理解人工智能算法设计电子书

内容全面:系统介绍了深度学习算法的基础理论和主流算法模型,如AlexNet、ResNet、BP、LSTM、GAN、CNN等,详细剖析了每个算法的理论推导过程和应用场合。 实用性强:采用PyTorch 2.x最新框架行实战,通过大量案例实现了计算机视觉、自然语言处理、AIGC等方向的主流算法,读者能够通过实际项目来理解算法思想。 资源丰富:源了全部课程源代码、课件、代码,本书Github仓库已收获超3000个Star数,并被“机器之心”、“量子位”等媒体报导。

售       价:¥

纸质售价:¥94.10购买纸书

3人正在读 | 0人评论 6.7

作       者:龙良曲

出  版  社:清华大学出版社

出版时间:2025-07-01

字       数:24.0万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
本书系统介绍了人工智能相关算法,尤其是深度学习算法,包含了基础的算法理论介绍、深度学习框架实现和重要的算法模型应用简介等,本书提供配套的源代码、源版本电子书、课件素材、以及微课视频等资料。全书共14章,可以分为4部份:第1~3章为第1部分,主要介绍人工智能的初步认知,并引出相关算法问题;第4~5章为第2部分,主要介绍PyTorch框架使用基础知识,为后续算法实现作铺垫;第6~9章为第3部分,主要介绍神经网络的核心理论基础,让读者能理解深度学习的本质;第10~14章为第4部分,主要介绍经典算法方向与模型结构的应用,让读者能够学有所用。<br/>【推荐语】<br/>内容全面:系统介绍了深度学习算法的基础理论和主流算法模型,如AlexNet、ResNet、BP、LSTM、GAN、CNN等,详细剖析了每个算法的理论推导过程和应用场合。 实用性强:采用PyTorch 2.x最新框架行实战,通过大量案例实现了计算机视觉、自然语言处理、AIGC等方向的主流算法,读者能够通过实际项目来理解算法思想。 资源丰富:源了全部课程源代码、课件、代码,本书Github仓库已收获超3000个Star数,并被“机器之心”、“量子位”等媒体报导。<br/>【作者】<br/>龙良曲:网名“龙龙老师”,毕业于中南大学,专注研究深度学习领域的前沿算法多年,发表多篇相关论文和发明专利。曾担任网易云课堂"深度学习与PyTorch”“深度学习与TensorFlow2”等视频课程的主讲教师,帮助大量学员快速掌握深度学习算法知识,课程广受好评。<br/>
目录展开

封面页

书名页

版权页

内容简介

作者简介

前言

目录

第1章 人工智能绪论

1.1 人工智能

1.1.1 人工智能简介

1.1.2 机器学习

1.1.3 神经网络与深度学习

1.2 神经网络发展简史

1.2.1 浅层神经网络

1.2.2 深度学习

1.3 深度学习特点

1.3.1 数据量

1.3.2 算力

1.3.3 网络规模

1.3.4 通用智能

1.4 深度学习应用

1.4.1 计算机视觉

1.4.2 自然语言处理

1.4.3 强化学习

1.5 深度学习框架

1.5.1 主流框架

1.5.2 静态图和动态图

1.5.3 功能演示

1.6 开发环境安装

1.6.1 安装Anaconda

1.6.2 安装CUDA

1.6.3 安装PyTorch

1.6.4 常用编辑器安装

第2章 回归问题

2.1 神经元模型

2.2 优化方法

2.3 线性模型实战

2.4 线性回归

第3章 分类问题

3.1 手写数字图片数据集

3.2 模型构建

3.3 误差计算

3.4 真的解决了吗

3.5 非线性模型

3.6 表达能力

3.7 优化方法

3.8 手写数字图片识别体验

3.8.1 网络搭建

3.8.2 模型训练

第4章 PyTorch基础

4.1 数据类型

4.1.1 数值类型

4.1.2 布尔类型

4.2 数值精度

4.2.1 读取精度

4.2.2 类型转换

4.3 待优化张量

4.4 创建张量

4.4.1 从数组、列表对象创建

4.4.2 创建全0或全1张量

4.4.3 创建自定义数值张量

4.4.4 创建已知分布的张量

4.4.5 创建序列

4.5 张量的典型应用

4.5.1 标量

4.5.2 向量

4.5.3 矩阵

4.5.4 三维张量

4.5.5 四维张量

4.6 索引与切片

4.6.1 索引

4.6.2 切片

4.6.3 小结

4.7 维度变换

4.7.1 改变视图

4.7.2 增加和删除维度

4.7.3 交换维度

4.7.4 复制数据

4.8 Broadcasting机制

4.9 数学运算

4.9.1 加、减、乘、除运算

4.9.2 乘方运算

4.9.3 指数和对数运算

4.9.4 矩阵相乘运算

4.10 前向传播实战

第5章 PyTorch进阶

5.1 合并与分割

5.1.1 合并

5.1.2 分割

5.2 数据统计

5.2.1 向量范数

5.2.2 最值、均值、和

5.3 张量比较

5.4 填充与复制

5.4.1 填充

5.4.2 复制

5.5 数据限幅

5.6 高级操作

5.6.1 索引采样

5.6.2 掩码采样

5.6.3 gather采样函数

5.6.4 where采样函数

5.6.5 scatter写入函数

5.6.6 meshgrid网格函数

5.7 经典数据集加载

5.7.1 预处理

5.7.2 随机打散

5.7.3 批训练

5.7.4 循环训练

5.8 MNIST测试实战

第6章 神经网络

6.1 感知机

6.2 全连接层

6.2.1 张量方式实现

6.2.2 层方式实现

6.3 神经网络

6.3.1 张量方式实现

6.3.2 层方式实现

6.3.3 优化目标

6.4 激活函数

6.4.1 Sigmoid

6.4.2 ReLU

6.4.3 LeakyReLU

6.4.4 tanh

6.5 输出层设计

6.5.1 普通实数空间

6.5.2 [0,1]区间

6.5.3 [0,1]区间,和为1

6.5.4 (-1,1)区间

6.6 误差计算

6.6.1 均方误差函数

6.6.2 交叉熵误差函数

6.7 神经网络类型

6.7.1 卷积神经网络

6.7.2 循环神经网络

6.7.3 注意力(机制)网络

6.7.4 图卷积神经网络

6.8 汽车油耗预测实战

6.8.1 数据集

6.8.2 创建网络

6.8.3 训练与测试

第7章 反向传播算法

7.1 导数与梯度

7.2 导数常见性质

7.2.1 基本函数的导数

7.2.2 常用导数性质

7.2.3 导数求解实战

7.3 激活函数导数

7.3.1 Sigmoid函数导数

7.3.2 ReLU函数导数

7.3.3 LeakyReLU函数导数

7.3.4 tanh函数梯度

7.4 损失函数梯度

7.4.1 均方误差函数梯度

7.4.2 交叉熵损失函数梯度

7.5 全连接层梯度

7.5.1 单神经元梯度

7.5.2 全连接层梯度

7.6 链式法则

7.7 反向传播算法

7.8 Himmelblau函数优化实战

7.9 反向传播算法实战

7.9.1 数据集

7.9.2 网络层

7.9.3 网络模型

7.9.4 网络训练

7.9.5 网络性能

第8章 PyTorch高级用法

8.1 常见功能模块

8.1.1 常见网络层类

8.1.2 网络容器

8.2 模型创建、训练与测试

8.2.1 模型创建

8.2.2 模型训练

8.2.3 模型测试

8.3 模型保存与加载

8.3.1 张量方式

8.3.2 网络方式

8.4 自定义网络

8.4.1 自定义网络层

8.4.2 自定义网络

8.5 模型乐园

8.5.1 加载模型

8.5.2 微调模型

8.6 测量工具

8.6.1 新建测量器

8.6.2 写入数据

8.6.3 统计数据

8.6.4 清除状态

8.6.5 准确率统计实战

8.7 可视化

8.7.1 模型端

8.7.2 浏览器端

第9章 过拟合

9.1 模型的容量

9.2 欠拟合与过拟合

9.2.1 欠拟合

9.2.2 过拟合

9.3 数据集划分

9.3.1 验证集与超参数

9.3.2 提前停止

9.4 模型设计

9.5 正则化

9.5.1 L0正则化

9.5.2 L1正则化

9.5.3 L2正则化

9.5.4 正则化效果

9.6 Dropout

9.7 数据增强

9.7.1 随机旋转

9.7.2 随机翻转

9.7.3 随机裁剪

9.7.4 生成数据

9.7.5 其他方式

9.8 过拟合问题实战

9.8.1 构建数据集

9.8.2 Pytorch lightning库

9.8.3 网络层数的影响

9.8.4 Dropout的影响

9.8.5 正则化的影响

第10章 卷积神经网络

10.1 全连接网络的问题

10.1.1 局部相关性

10.1.2 权值共享

10.1.3 卷积运算

10.2 卷积神经网络

10.2.1 单通道输入和单卷积核

10.2.2 多通道输入和单卷积核

10.2.3 多通道输入和多卷积核

10.2.4 步长

10.2.5 填充

10.3 卷积层实现

10.3.1 自定义权值

10.3.2 卷积层类

10.4 LeNet-5实战

10.5 表示学习

10.6 梯度传播

10.7 池化层

10.8 BatchNorm层

10.8.1 前向传播

10.8.2 反向更新

10.8.3 BN层实现

10.9 经典卷积网络

10.9.1 AlexNet

10.9.2 VGG系列

10.9.3 GoogLeNet

10.10 VGG13实战

10.10.1 CIFAR数据集

10.10.2 VGG模型

10.11 卷积层变种

10.11.1 空洞卷积

10.11.2 转置卷积

10.11.3 分离卷积

10.12 深度残差网络

10.12.1 ResNet原理

10.12.2 ResBlock实现

10.13 DenseNet

10.14 ResNet18实战

第11章 循环神经网络

11.1 序列表示方法

11.1.1 Embedding层

11.1.2 预训练的词向量

11.2 循环神经网络

11.2.1 全连接层可行吗

11.2.2 共享权值

11.2.3 全局语义

11.2.4 循环神经网络

11.3 梯度传播

11.4 RNN层使用方法

11.4.1 RNNCell

11.4.2 多层RNNCell网络

11.4.3 RNN层

11.5 RNN情感分类问题实战

11.5.1 数据集

11.5.2 网络模型

11.5.3 训练与测试

11.6 梯度弥散和梯度爆炸

11.6.1 梯度裁剪

11.6.2 梯度弥散

11.7 RNN短时记忆

11.8 LSTM原理

11.8.1 遗忘门

11.8.2 输入门

11.8.3 刷新Memory

11.8.4 输出门

11.8.5 小结

11.9 LSTM层使用方法

11.9.1 LSTMCell

11.9.2 LSTM层

11.10 GRU简介

11.10.1 复位门

11.10.2 更新门

11.10.3 GRU使用方法

11.11 LSTM/GRU情感分类问题再战

11.11.1 LSTM模型

11.11.2 GRU模型

第12章 自编码器

12.1 自编码器原理

12.2 Fashion MNIST图片重建实战

12.2.1 Fashion MNIST数据集

12.2.2 编码器

12.2.3 解码器

12.2.4 自编码器

12.2.5 网络训练

12.2.6 图片重建

12.3 自编码器变种

12.3.1 Denoising Auto-Encoder

12.3.2 Dropout Auto-Encoder

12.3.3 Adversarial Auto-Encoder

12.4 变分自编码器

12.4.1 VAE原理

12.4.2 Reparameterization Trick

12.5 VAE图片生成实战

12.5.1 VAE模型

12.5.2 Reparameterization函数

12.5.3 网络训练

12.5.4 图片生成

第13章 生成对抗网络

13.1 博弈学习实例

13.2 GAN原理

13.2.1 网络结构

13.2.2 网络训练

13.2.3 统一目标函数

13.3 DCGAN实战

13.3.1 动漫图片数据集

13.3.2 生成器

13.3.3 判别器

13.3.4 训练与可视化

13.4 GAN变种

13.4.1 DCGAN

13.4.2 InfoGAN

13.4.3 CycleGAN

13.4.4 WGAN

13.4.5 Equal GAN

13.4.6 Self-Attention GAN

13.4.7 BigGAN

13.5 纳什均衡

13.5.1 判别器状态

13.5.2 生成器状态

13.5.3 纳什均衡点

13.6 GAN训练难题

13.6.1 超参数敏感

13.6.2 模式崩塌

13.7 WGAN原理

13.7.1 JS散度的缺陷

13.7.2 EM距离

13.7.3 WGAN-GP

13.8 WGAN-GP实战

第14章 自定义数据集

14.1 精灵宝可梦数据集

14.2 自定义数据集加载

14.2.1 创建编码表

14.2.2 创建样本和标签表格

14.2.3 数据集划分

14.3 宝可梦数据集实战

14.3.1 创建Dataset对象

14.3.2 样本预处理

14.3.3 创建模型

14.3.4 网络训练与测试

14.4 迁移学习

14.4.1 迁移学习原理

14.4.2 迁移学习实战

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部