万本电子书0元读

万本电子书0元读

顶部广告

神经网络与PyTorch实战电子书

以科学计算为线,以神经网络为面,以PyTorch为器,高效铸造AI应用

售       价:¥

纸质售价:¥40.70购买纸书

40人正在读 | 0人评论 6.5

作       者:肖智清

出  版  社:机械工业出版社

出版时间:2018-08-01

字       数:17.3万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
全书分为三个部分。第1和第2章感性介绍神经网络的基础知识,并给出一个利用PyTorch搭建神经网络解决实际问题的例子,使读者对神经网络和PyTorch有初步的了解;第3~9章介绍基于Python和PyTorch的科学计算和神经网络搭建,涵盖了几乎所有Python基础知识和PyTorch基础功能,并通过例子使读者完全掌握相关技术;第10和第11章介绍生成对抗网络和强化学习,使读者了解更多神经网络的常用用法。<br/>【推荐语】<br/>以科学计算为线,以神经网络为面,以PyTorch为器,高效铸造AI应用<br/>
目录展开

前言

第1章 初识神经网络

1.1 例说神经网络

1.1.1 从围棋和AlphaGo说起

1.1.2 人的神经系统

1.1.3 人工神经元

1.1.4 人工神经网络

1.1.5 神经网络的设计和权重的学习

1.2 神经网络与人工智能等概念的关系

1.2.1 人工智能和数据挖掘

1.2.2 机器学习和模式识别

1.2.3 人工神经网络和深度学习

1.2.4 各概念之间的联系

1.3 本章小结

第2章 初识PyTorch

2.1 人工神经网络库PyTorch

2.1.1 PyTorch是什么

2.1.2 编写PyTorch程序

2.2 例说PyTorch

2.2.1 迷你AlphaGo介绍

2.2.2 迷你AlphaGo的完整实现

2.3 PyTorch学习路线

2.4 本章小结

第3章 使用PyTorch进行科学计算

3.1 初识张量

3.1.1 张量的数学定义

3.1.2 PyTorch里的张量

3.2 构造torch.Tensor类实例

3.2.1 构造含有特定数据的张量

3.2.2 构造特定大小的张量

3.2.3 构造等比数列和等差数列张量

3.2.4 构造随机张量

3.3 组织张量的元素

3.3.1 重排张量元素

3.3.2 选取部分张量元素

3.3.3 张量的扩展和拼接

3.4 张量的科学计算

3.4.1 有理运算和广播语义

3.4.2 逐元素运算

3.4.3 张量点积和Einstein求和

3.4.4 统计函数

3.4.5 比较和逻辑运算

3.5 例子:用蒙特卡洛算法计算圆周率

3.5.1 随机计算与蒙特卡洛算法

3.5.2 蒙特卡洛算法求解圆周率的实现

3.6 本章小结

第4章 求解优化问题

4.1 梯度及其计算

4.1.1 梯度的定义

4.1.2 梯度的性质和计算

4.1.3 使用PyTorch计算梯度数值

4.2 优化算法与torch.optim包

4.2.1 梯度下降算法

4.2.2 梯度下降算法的缺陷和解决方案

4.2.3 各种优化算法

4.3 例子:Himmelblau函数的优化

4.3.1 Himmelblau函数及可视化

4.3.2 求解Himmelblau的最小值

4.3.3 求解Himmelblau的局部极大值

4.4 本章小结

第5章 线性回归

5.1 一元线性回归

5.1.1 最小二乘法

5.1.2 正规方程法

5.2 多元线性回归

5.3 其他损失情况下的线性回归

5.3.1 MSE损失、损失和平滑损失

5.3.2 torch.nn子包与损失类

5.3.3 使用优化器求解线性回归

5.3.4 数据的归一化

5.4 例子:世界人口的线性回归

5.4.1 从维基百科页面获取世界人口数据

5.4.2 对世界人口做最小二乘法线性回归

5.4.3 用优化算法实现最小二乘回归

5.5 本章小结

第6章 线性判决与逻辑回归

6.1 线性判决与互熵损失

6.1.1 判定问题与准确率

6.1.2 线性判决

6.1.3 极大似然和互熵损失

6.2 逻辑回归

6.2.1 expit()函数和logit()函数

6.2.2 用优化器实现逻辑回归

6.2.3 Newton-Raphson方法

6.3 多项逻辑回归

6.4 例子:数字图像的识别

6.4.1 使用torchvision读取MNIST数据集

6.4.2 利用多项逻辑回归识别MNIST数据

6.5 例子:股票成交量预测

6.5.1 股票数据的读取和可视化

6.5.2 成交量变化方向预测

6.6 本章小结

第7章 全连接神经网络

7.1 前馈神经网络

7.1.1 前馈神经网络的定义

7.1.2 使用torch.nn.Sequential类搭建前馈神经网络

7.1.3 权重的确定与反向传播

7.2 全连接层和全连接神经网络

7.3 非线性激活

7.3.1 逐元素激活

7.3.2 非逐元素激活

7.4 网络结构的选择

7.4.1 欠拟合和过拟合

7.4.2 训练集、验证集和测试集

7.5 例子:基于全连接网络的非线性回归

7.5.1 数据的生成和数据集分割

7.5.2 确定网络结构并训练网络

7.5.3 测试性能

7.6 本章小结

第8章 卷积神经网络

8.1 卷积层

8.1.1 序列的互相关和卷积

8.1.2 一维张量的互相关

8.1.3 一维张量的转置卷积

8.1.4 高维张量的互相关和转置卷积

8.1.5 torch.nn包里的卷积层

8.2 池化层、视觉层和补全层

8.2.1 张量的池化

8.2.2 张量的反池化

8.2.3 torch.nn包里的池化层

8.2.4 张量的上采样

8.2.5 torch.nn包里的视觉层

8.2.6 张量的补全运算

8.2.7 torch.nn包里的补全层

8.3 例子:MNIST图片分类的改进

8.3.1 搭建卷积神经网络

8.3.2 卷积神经网络的训练和测试

8.4 本章小结

第9章 循环神经网络

9.1 神经网络的循环结构

9.1.1 单向单层循环结构

9.1.2 多层循环结构

9.1.3 双向循环结构

9.2 循环神经网络中的循环单元

9.2.1 基本循环神经元

9.2.2 长短期记忆单元

9.2.3 门控循环单元

9.3 循环神经网络的实现

9.3.1 torch.nn子包中的循环单元类

9.3.2 torch.nn子包中的循环神经网络类

9.4 例子:人均GDP的预测

9.4.1 使用pandas-datareader读取世界银行数据库

9.4.2 搭建LSTM预测模型

9.4.3 网络的训练和使用

9.5 本章小结

第10章 生成对抗网络

10.1 生成对抗网络的原理

10.1.1 例说生成对抗

10.1.2 生成对抗网络的结构

10.2 用生成对抗网络生成图像

10.2.1 深度卷积生成对抗网络

10.2.2 规范化层

10.2.3 网络权重值的初始化

10.3 例子:CIFAR-10图像的生成

10.3.1 CIFAR-10数据集

10.3.2 搭建生成网络和鉴别网络

10.3.3 网络的训练和使用

10.4 本章小结

第11章 强化学习

11.1 初识强化学习

11.1.1 例说强化学习

11.1.2 强化学习的分类

11.2 Markov决策过程及其算法

11.2.1 Markov决策过程

11.2.2 最优策略的性质和求解

11.2.3 时序差分更新算法

11.3 例子:车杆游戏的游戏AI开发

11.3.1 游戏环境及其使用方法

11.3.2 游戏AI和深度Q网络的设计

11.3.3 深度Q网络的训练

11.3.4 游戏AI的使用

11.4 本章小结

附录A 开发环境的安装和使用

附录B Python编程基础

累计评论(1条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部