1. 介绍全面,讲解详尽 本书全面地讲解TensorFlow 2.0的新框架设计思想和模型的编写,详细介绍TensorFlow 2.0的安装、使用以及TensorFlow 2.0官方所推荐的Keras编程方法与技巧等。 2. 作者经验丰富,代码编写细腻 本书的代码编写由低到高,针对各个环节都有详尽的说明,使得读者能够充分了解和掌握代码各个模块的编写方法和技巧,是一本非常好的TensorFlow 2.0学习教程。 作者是长期奋战在科研和工业界的一线算法设计和程序编写人员,实战经验丰富,对代码中可能会出现的各种问题和“坑”有丰富的处理经验,能够使得读者少走很多弯路。
售 价:¥
纸质售价:¥52.10购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
封面页
书名页
版权页
内容简介
前言
第1章 TensorFlow 2.0的安装
1.1 Python基本安装和用法
1.1.1 Anaconda的下载与安装
1.1.2 Python编译器PyCharm的安装
1.1.3 使用Python计算softmax函数
1.2 TensorFlow 2.0GPU版本的安装
1.2.1 检测Anaconda中的TensorFlow版本
1.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装
1.3 Hello TensorFlow 2.0
1.4 本章小结
第2章 TensorFlow 2.0令人期待的变化
2.1 新的架构、新的运行、新的开始
2.1.1 API精简
2.1.2 Eager Execution
2.1.3 取消全局变量
2.1.4 使用函数而不是会话
2.1.5 弃用collection
2.2 配角转成主角:从TensorFlow Eager Execution转正谈起
2.2.1 Eager简介与调用
2.2.2 读取数据
2.3 使用TensorFlow 2.0模式进行线性回归的一个简单例子
2.3.1 模型的工具与数据的生成
2.3.2 模型的定义
2.3.3 损失函数的定义
2.3.4 梯度函数的更新计算
2.4 TensorFlow 2.0进阶——AutoGraph和tf.function
2.5 本章小结
第3章 TensorFlow和Keras
3.1 模型!模型!模型!还是模型
3.2 使用Keras API实现鸢尾花分类的例子(顺序模式)
3.2.1 数据的准备
3.2.2 数据的处理
3.2.3 梯度更新函数的写法
3.2.4 使用Keras 函数式编程实现鸢尾花分类的例子(重点)
3.2.5 使用保存的Keras模式对模型进行复用
3.2.6 使用TensorFlow 2.0标准化编译对iris模型进行拟合
3.3 多输入单一输出TensorFlow 2.0编译方法(选学)
3.3.1 数据的获取与处理
3.3.2 模型的建立
3.3.3 数据的组合
3.4 多输入多输出TensorFlow 2.0编译方法(选学)
3.5 全连接层详解
3.5.1 全连接层的定义与实现
3.5.2 使用TensorFlow 2.0自带的API实现全连接层
3.5.3 打印显示TensorFlow 2.0设计的模型结构和参数
3.6 本章小结
第4章 TensorFlow 2.0语法基础
4.1 BP神经网络简介
4.2 BP神经网络的两个基础算法
4.2.1 最小二乘法(LS算法)
4.2.2 道士下山的故事——梯度下降算法
4.3 反馈神经网络反向传播算法
4.3.1 深度学习基础
4.3.2 链式求导法则
4.3.3 反馈神经网络原理与公式推导
4.3.4 反馈神经网络原理的激活函数
4.3.5 反馈神经网络原理的Python实现
4.4 本章小结
第5章 卷积层与MNIST实战
5.1 卷积运算
5.1.1 卷积运算的基本概念
5.1.2 TensorFlow 2.0中卷积函数的实现
5.1.3 池化运算
5.1.4 softmax激活函数
5.1.5 卷积神经网络原理
5.2 TensorFlow 2.0编程实战:MNIST手写体识别
5.2.1 MNIST数据集
5.2.2 MNIST数据集特征和标注
5.2.3 TensorFlow 2.0编程实战:MNIST数据集
5.2.4 使用自定义的卷积层实现MNIST识别
5.3 本章小结
第6章 TensorFlow 2.0 Dataset使用详解
6.1 Dataset API基本结构和内容
6.1.1 Dataset API数据种类
6.1.2 Dataset API基础使用
6.2 Dataset API高级用法
6.2.1 Dataset API数据转换方法
6.2.2 读取图片数据集的例子
6.3 使用TFRecord API创建和使用数据集
6.3.1 TFRecord的基本概念
6.3.2 TFRecord的创建
6.3.3 TFRecord的读取
6.4 TFRecord实战:带有处理模型的完整例子
6.4.1 创建数据集
6.4.2 创建解析函数
6.4.3 创建数据模型
6.4.4 创建读取函数
6.5 本章小结
第7章 TensorFlow Datasets和TensorBoard详解
7.1 TensorFlow Datasets简介
7.1.1 Datasets 数据集的安装
7.1.2 Datasets数据集的使用
7.2 Datasets数据集的使用——FashionMNIST
7.2.1 FashionMNIST数据集下载与显示
7.2.2 模型的建立与训练
7.3 使用Keras对FashionMNIST数据集进行处理
7.3.1 获取数据集
7.3.2 数据集的调整
7.3.3 使用Python类函数建立模型
7.3.4 模型的查看和参数的打印
7.3.5 模型的训练和评估
7.4 使用TensorBoard可视化训练过程
7.4.1 TensorBoard的文件夹设置
7.4.2 显式地调用TensorBoard
7.4.3 使用TensorBoard
7.5 本章小结
第8章 从冠军开始:ResNet
8.1 ResNet基础原理与程序设计基础
8.1.1 ResNet诞生的背景
8.1.2 模块工具的TensorFlow实现——不要重复发明轮子
8.1.3 TensorFlow高级模块layers的用法
8.2 ResNet实战:CIFAR-100数据集分类
8.2.1 CIFAR-100数据集
8.2.2 ResNet残差模块的实现
8.2.3 ResNet网络的实现
8.2.4 使用ResNet对CIFAR-100数据集进行分类
8.3 ResNet的兄弟——ResNeXt
8.3.1 ResNeXt诞生的背景
8.3.2 ResNeXt残差模块的实现
8.3.3 ResNeXt网络的实现
8.3.4 ResNeXt和ResNet的比较
8.4 本章小结
第9章 注意力机制
9.1 何为“注意力”
9.2 注意力机制的两种常见形式
9.2.1 Hard Attention(硬性注意力)
9.2.2 Soft Attention(软性注意力)
9.3 注意力机制的两种实现形式
9.3.1 Spatial Attention(空间注意力)
9.3.2 Channel Attention(通道注意力)
9.4 注意力机制的两种经典模型
9.4.1 最后的冠军——SENet
9.4.2 结合Spatial和Channel的CBAM模型
9.4.3 注意力的前沿研究——基于细粒度的图像注意力机制
9.5 本章小结
第10章 卷积神经网络实战:识文断字也可以
10.1 文本数据处理
10.1.1 数据集介绍和数据清洗
10.1.2 停用词的使用
10.1.3 词向量训练模型word2vec的使用
10.1.4 文本主题的提取:基于TF-IDF(选学)
10.1.5 文本主题的提取:基于TextRank(选学)
10.2 针对文本的卷积神经网络模型——字符卷积
10.2.1 字符(非单词)文本的处理
10.2.2 卷积神经网络文本分类模型的实现——Conv1D(一维卷积)
10.3 针对文本的卷积神经网络模型——词卷积
10.3.1 单词的文本处理
10.3.2 卷积神经网络文本分类模型的实现——Conv2D(二维卷积)
10.4 使用卷积对文本分类的补充内容
10.4.1 汉字的文本处理
10.4.2 其他的细节
10.5 本章小结
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜