万本电子书0元读

万本电子书0元读

顶部广告

TensorFlow深度学习——深入理解人工智能算法设计电子书

本书适合初学者快速门深度学习算法和TensorFlow框架。我们已讲故事的方式向读者一步步地介绍每个核心算法,非常详细地剖析算法原理,手把手实现每个算法实战,不但让读者能够了解算法的工作原理,更重要的是教会读者如何一步步地思考问题并解决问题。具体地,我们会介绍目前深度学习的数学原理,反向传播算法,卷积神经网络,循环神经网络,对抗生产网络,自编码器,神经网络结构搜索,图卷积网络等等一系列前沿核心算法。使读者不仅可以明白原理,还能学以致用。内容讲解细致,没有数学基础的读者也能轻松门。内容全面:系统介绍了深度学习算法的理论知识和主流算法模型,如AlexNet、ResNet、DenseNet、LSTM、GRU、GAN、DQN、PPO等,详细剖析了每个算法的理论推导过程和应用场合。

售       价:¥

纸质售价:¥66.70购买纸书

114人正在读 | 1人评论 6.2

作       者:龙良曲

出  版  社:清华大学出版社

出版时间:2020-08-01

字       数:22.4万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
人工智能是近年来全球*为火热的研究领域之一,尤其是随着深度学习算法研究的突破,人工智能技术被应用到图片识别、机器翻译、语音助手、自动驾驶等一系列领域中,取得了前所未有的智能水平。深度学习算法涵盖的内容非常前沿和广袤,国内外出版的相关书籍并不算多,有些侧重于理论层面的推导,有些侧重于框架API的介绍,鲜有能结合深度学习算法理论和实战讲解的教材。为了使读者能够深刻理解深度学习算法精髓,本书以探索问题式叙述风格展,从*简单的人工智能问题手,一步步地引导读者分析和解决并发现新的问题,重温当年算法设计人员的探索之路。本书介绍了深度学习算法所需要的基础数学理论、TensorFlow 2.x框架的基本使用方法、回归问题、分类问题、反向传播算法、梯度下降算法、过拟合、全连网络、卷积神经网络、循环神经网络、自编码器、生成对抗网络、强化学习、迁移学习等主流和前沿知识。针对每个算法或模型,本书均详细分析了采用TensorFlow框架的实现方法,并基于多个常见的经典数据集行了算法模型的实战,如基于MNIST和CIFAR10数据集的图片识别实战、基于IMDB数据集的文本分析实战、基于动漫头像数据集的图片生成实战和基于OpenAI Gym环境的平衡杆游戏实战等。通过原理与实战结合的方式,读者可*限度地理解算法理论,同时提升工程实现能力。本书可作为高等院校人工智能课程的教材,也可供从事人工智能、深度学习算法研究与发人员自学或参考。<br/>【推荐语】<br/>本书适合初学者快速门深度学习算法和TensorFlow框架。我们已讲故事的方式向读者一步步地介绍每个核心算法,非常详细地剖析算法原理,手把手实现每个算法实战,不但让读者能够了解算法的工作原理,更重要的是教会读者如何一步步地思考问题并解决问题。具体地,我们会介绍目前深度学习的数学原理,反向传播算法,卷积神经网络,循环神经网络,对抗生产网络,自编码器,神经网络结构搜索,图卷积网络等等一系列前沿核心算法。使读者不仅可以明白原理,还能学以致用。内容讲解细致,没有数学基础的读者也能轻松门。内容全面:系统介绍了深度学习算法的理论知识和主流算法模型,如AlexNet、ResNet、DenseNet、LSTM、GRU、GAN、DQN、PPO等,详细剖析了每个算法的理论推导过程和应用场合。 实用性强:采用TensorFlow 2.x*框架行实战,通过大量案例实现了计算机视觉、自然语言处理、强化学习等方向的主流算法,读者能够通过实际项目来掌握算法思想。 资源丰富:源了全部课程源代码、课件、本书Github仓库已收获超9300个Star数,并被“机器之心”、“量子位”等媒体报导。<br/>【作者】<br/>龙良曲,澳洲在读博士,曾任新加坡国立大学助理研究员,在深度学习领域有非常丰富的理论和实践基础,在网易云课程发布2门S级课程。<br/>
目录展开

封面页

书名页

版权页

作者简介

内容简介

前言

目录

第1章 人工智能绪论

1.1 人工智能简介

1.1.1 人工智能

1.1.2 机器学习

1.1.3 神经网络与深度学习

1.2 神经网络发展简史

1.2.1 浅层神经网络

1.2.2 深度学习

1.3 深度学习特点

1.3.1 数据量

1.3.2 计算力

1.3.3 网络规模

1.3.4 通用智能

1.4 深度学习应用

1.4.1 计算机视觉

1.4.2 自然语言处理

1.4.3 强化学习

1.5 深度学习框架

1.5.1 主流框架

1.5.2 TensorFlow 2与TensorFlow1.x

1.5.3 功能演示

1.6 开发环境安装

1.6.1 Anaconda安装

1.6.2 CUDA安装

1.6.3 TensorFlow安装

1.6.4 常用编辑器安装

参考文献

第2章 回归问题

2.1 神经元模型

2.2 优化方法

2.3 线性模型实战

2.4 线性回归

参考文献

第3章 分类问题

3.1 手写数字图片数据集

3.2 模型构建

3.3 误差计算

3.4 真的解决了吗

3.5 非线性模型

3.6 表达能力

3.7 优化方法

3.8 手写数字图片识别体验

3.8.1 网络搭建

3.8.2 模型训练

参考文献

第4章 TensorFlow基础

4.1 数据类型

4.1.1 数值类型

4.1.2 字符串类型

4.1.3 布尔类型

4.2 数值精度

4.2.1 读取精度

4.2.2 类型转换

4.3 待优化张量

4.4 创建张量

4.4.1 从数组、列表对象创建

4.4.2 创建全0或全1张量

4.4.3 创建自定义数值张量

4.4.4 创建已知分布的张量

4.4.5 创建序列

4.5 张量的典型应用

4.5.1 标量

4.5.2 向量

4.5.3 矩阵

4.5.4 三维张量

4.5.5 四维张量

4.6 索引与切片

4.6.1 索引

4.6.2 切片

4.6.3 小结

4.7 维度变换

4.7.1 改变视图

4.7.2 增加、删除维度

4.7.3 交换维度

4.7.4 复制数据

4.8 Broadcasting

4.9 数学运算

4.9.1 加、减、乘、除运算

4.9.2 乘方运算

4.9.3 指数和对数运算

4.9.4 矩阵相乘运算

4.10 前向传播实战

第5章 TensorFlow进阶

5.1 合并与分割

5.1.1 合并

5.1.2 分割

5.2 数据统计

5.2.1 向量范数

5.2.2 最值、均值、和

5.3 张量比较

5.4 填充与复制

5.4.1 填充

5.4.2 复制

5.5 数据限幅

5.6 高级操作

5.6.1 tf.gather

5.6.2 tf.gather_nd

5.6.3 tf.boolean_mask

5.6.4 tf.where

5.6.5 scatter_nd

5.6.6 meshgrid

5.7 经典数据集加载

5.7.1 随机打散

5.7.2 批训练

5.7.3 预处理

5.7.4 循环训练

5.8 MNIST测试实战

第6章 神经网络

6.1 感知机

6.2 全连接层

6.2.1 张量方式实现

6.2.2 层方式实现

6.3 神经网络

6.3.1 张量方式实现

6.3.2 层方式实现

6.3.3 优化目标

6.4 激活函数

6.4.1 Sigmoid

6.4.2 ReLU

6.4.3 LeakyReLU

6.4.4 tanh

6.5 输出层设计

6.5.1 普通实数空间

6.5.2 [0,1]区间

6.5.3 [0,1]区间,和为1

6.5.4 [-1,1]

6.6 误差计算

6.6.1 均方差误差函数

6.6.2 交叉熵损失函数

6.7 神经网络类型

6.7.1 卷积神经网络

6.7.2 循环神经网络

6.7.3 注意力(机制)网络

6.7.4 图卷积神经网络

6.8 汽车油耗预测实战

6.8.1 数据集

6.8.2 创建网络

6.8.3 训练与测试

参考文献

第7章 反向传播算法

7.1 导数与梯度

7.2 导数常见性质

7.2.1 基本函数的导数

7.2.2 常用导数性质

7.2.3 导数求解实战

7.3 激活函数导数

7.3.1 Sigmoid函数导数

7.3.2 ReLU函数导数

7.3.3 LeakyReLU函数导数

7.3.4 tanh函数梯度

7.4 损失函数梯度

7.4.1 均方误差函数梯度

7.4.2 交叉熵函数梯度

7.5 全连接层梯度

7.5.1 单神经元梯度

7.5.2 全连接层梯度

7.6 链式法则

7.7 反向传播算法

7.8 Himmelblau函数优化实战

7.9 反向传播算法实战

7.9.1 数据集

7.9.2 网络层

7.9.3 网络模型

7.9.4 网络训练

7.9.5 网络性能

参考文献

第8章 Keras高层接口

8.1 常见功能模块

8.1.1 常见网络层类

8.1.2 网络容器

8.2 模型装配、训练与测试

8.2.1 模型装配

8.2.2 模型训练

8.2.3 模型测试

8.3 模型保存与加载

8.3.1 张量方式

8.3.2 网络方式

8.3.3 SavedModel方式

8.4 自定义网络简介

8.4.1 自定义网络层

8.4.2 自定义网络

8.5 模型乐园

8.6 测量工具

8.6.1 新建测量器

8.6.2 写入数据

8.6.3 读取统计信息

8.6.4 清除状态

8.6.5 准确率统计实战

8.7 可视化

8.7.1 模型端

8.7.2 浏览器端

第9章 过拟合

9.1 模型的容量

9.2 欠拟合与过拟合

9.2.1 欠拟合

9.2.2 过拟合

9.3 数据集划分

9.3.1 验证集与超参数

9.3.2 提前停止

9.4 模型设计

9.5 正则化

9.5.1 L0正则化

9.5.2 L1正则化

9.5.3 L2正则化

9.5.4 正则化效果

9.6 Dropout

9.7 数据增强

9.7.1 旋转

9.7.2 翻转

9.7.3 裁剪

9.7.4 生成数据

9.7.5 其他方式

9.8 过拟合问题实战

9.8.1 构建数据集

9.8.2 网络层数的影响

9.8.3 Dropout的影响

9.8.4 正则化的影响

参考文献

第10章 卷积神经网络

10.1 全连接网络的问题

10.1.1 局部相关性

10.1.2 权值共享

10.1.3 卷积运算

10.2 卷积神经网络

10.2.1 单通道输入和单卷积核

10.2.2 多通道输入和单卷积核

10.2.3 多通道输入、多卷积核

10.2.4 步长

10.2.5 填充

10.3 卷积层实现

10.3.1 自定义权值

10.3.2 卷积层类

10.4 LeNet-5实战

10.5 表示学习

10.6 梯度传播

10.7 池化层

10.8 BatchNorm层

10.8.1 前向传播

10.8.2 反向更新

10.8.3 BN层实现

10.9 经典卷积网络

10.9.1 AlexNet

10.9.2 VGG系列

10.9.3 GoogLeNet

10.10 CIFAR10与VGG13实战

10.11 卷积层变种

10.11.1 空洞卷积

10.11.2 转置卷积

10.11.3 分离卷积

10.12 深度残差网络

10.12.1 ResNet原理

10.12.2 ResBlock实现

10.13 DenseNet

10.14 CIFAR10与ResNet18实战

参考文献

第11章 循环神经网络

11.1 序列表示方法

11.1.1 Embedding层

11.1.2 预训练的词向量

11.2 循环神经网络

11.2.1 全连接层可行吗

11.2.2 权值共享

11.2.3 全局语义

11.2.4 循环神经网络原理

11.3 梯度传播

11.4 RNN层使用方法

11.4.1 SimpleRNNCell

11.4.2 多层SimpleRNNCell网络

11.4.3 SimpleRNN层

11.5 RNN情感分类问题实战

11.5.1 数据集

11.5.2 网络模型

11.5.3 训练与测试

11.6 梯度弥散和梯度爆炸

11.6.1 梯度裁剪

11.6.2 梯度弥散

11.7 RNN短时记忆

11.8 LSTM原理

11.8.1 遗忘门

11.8.2 输入门

11.8.3 刷新Memory

11.8.4 输出门

11.8.5 小结

11.9 LSTM层使用方法

11.9.1 LSTMCell

11.9.2 LSTM层

11.10 GRU简介

11.10.1 复位门

11.10.2 更新门

11.10.3 GRU使用方法

11.11 LSTM/GRU情感分类问题再战

11.11.1 LSTM模型

11.11.2 GRU模型

11.12 预训练的词向量

参考文献

第12章 自编码器

12.1 自编码器原理

12.2 FashionMNIST图片重建实战

12.2.1 Fashion MNIST数据集

12.2.2 编码器

12.2.3 解码器

12.2.4 自编码器

12.2.5 网络训练

12.2.6 图片重建

12.3 自编码器变种

12.3.1 Denoising Auto-Encoder

12.3.2 Dropout Auto-Encoder

12.3.3 Adversarial Auto-Encoder

12.4 变分自编码器

12.4.1 VAE原理

12.4.2 ReparameterizationTrick

12.5 VAE图片生成实战

12.5.1 VAE模型

12.5.2 Reparameterization技巧

12.5.3 网络训练

12.5.4 图片生成

参考文献

第13章 生成对抗网络

13.1 博弈学习实例

13.2 GAN原理

13.2.1 网络结构

13.2.2 网络训练

13.2.3 统一目标函数

13.3 DCGAN实战

13.3.1 动漫图片数据集

13.3.2 生成器

13.3.3 判别器

13.3.4 训练与可视化

13.4 GAN变种

13.4.1 DCGAN

13.4.2 InfoGAN

13.4.3 CycleGAN

13.4.4 WGAN

13.4.5 EqualGAN

13.4.6 Self-AttentionGAN

13.4.7 BigGAN

13.5 纳什均衡

13.5.1 判别器状态

13.5.2 生成器状态

13.5.3 纳什均衡点

13.6 GAN训练难题

13.6.1 超参数敏感

13.6.2 模式崩塌

13.7 WGAN原理

13.7.1 JS散度的缺陷

13.7.2 EM距离

13.7.3 WGAN-GP

13.8 WGAN-GP实战

参考文献

第14章 强化学习

14.1 先睹为快

14.1.1 平衡杆游戏

14.1.2 Gym平台

14.1.3 策略网络

14.1.4 梯度更新

14.1.5 平衡杆游戏实战

14.2 强化学习问题

14.2.1 马尔科夫决策过程

14.2.2 目标函数

14.3 策略梯度方法

14.3.1 REINFORCE算法

14.3.2 原始策略梯度的改进

14.3.3 带基准的REINFORCE算法

14.3.4 重要性采样

14.3.5 PPO算法

14.3.6 PPO实战

14.4 值函数方法

14.4.1 值函数

14.4.2 值函数估计

14.4.3 策略改进

14.4.4 SARSA算法

14.4.5 DQN算法

14.4.6 DQN变种

14.4.7 DQN实战

14.5 Actor-Critic方法

14.5.1 AdvantageAC算法

14.5.2 A3C算法

14.5.3 A3C实战

参考文献

第15章 自定义数据集

15.1 精灵宝可梦数据集

15.2 自定义数据集加载

15.2.1 创建编码表

15.2.2 创建样本和标签表格

15.2.3 数据集划分

15.3 宝可梦数据集实战

15.3.1 创建Dataset对象

15.3.2 数据预处理

15.3.3 创建模型

15.3.4 网络训练与测试

15.4 迁移学习

15.4.1 迁移学习原理

15.4.2 迁移学习实战

累计评论(1条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部