"1. 版本新,易门 本书详细地介绍从TensorFlow 2.1的安装到使用、TensorFlow默认API,以及使用官方所推荐的Keras的编程方法与技巧等。 2. 作者经验丰富,代码编写细腻 作者是长期奋战在科研和工业界的一线算法设计和程序编写人员,实战经验丰富,对代码中可能会出现的各种问题和“坑”有丰富的处理经验,使得读者能够少走很多弯路。 3. 理论扎实,深浅出 在代码设计的基础上,本书还深浅出地介绍深度学习需要掌握的一些基本理论知识,通过大量的公式与图示结合的方式对理论做介绍,是一本难得的好书。
售 价:¥
纸质售价:¥54.50购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
封面页
书名页
版权页
内容简介
前言
目录
第1章 自然语言之道
1.1 何谓自然语言处理
1.1.1 自然语言处理是门技术
1.1.2 传统自然语言处理
1.2 自然语言处理为什么难——以最简单的情感分析为例
1.3 自然语言处理的展望
1.3.1 自然语言处理对于人工智能的意义
1.3.2 自然语言在金融、法律、医疗健康等方面的应用
1.4 搭建环境1:安装Python
1.4.1 Anaconda的下载与安装
1.4.2 Python编译器PyCharm的安装
1.4.3 使用Python计算softmax函数
1.5 搭建环境2:安装TensorFlow 2.1
1.5.1 安装TensorFlow 2.1的CPU版本
1.5.2 安装TensorFlow 2.1的GPU版本
1.5.3 练习——Hello TensorFlow
1.6 实战——酒店评论的情感分类
1.6.1 第一步:数据的准备
1.6.2 第二步:数据的处理
1.6.3 第三步:模型的设计
1.6.4 第四步:模型的训练
1.6.5 第五步:模型的结果和展示
1.7 本章小结
第2章 Hello TensorFlow & Keras
2.1 TensorFlow & Keras
2.1.1 模型!模型!还是模型!
2.1.2 使用Keras API实现鸢尾花分类的例子(顺序模式)
2.1.3 使用Keras函数式编程实现鸢尾花分类的例子(重点)
2.1.4 使用保存的Keras模式对模型进行复用
2.1.5 使用TensorFlow标准化编译对iris模型进行拟合
2.1.6 多输入单一输出TensorFlow编译方法(选学)
2.1.7 多输入多输出TensorFlow编译方法(选学)
2.2 全连接层详解
2.2.1 全连接层的定义与实现
2.2.2 使用TensorFlow自带的API实现全连接层
2.2.3 打印显示已设计的model结构和参数
2.3 懒人的福音——Keras模型库
2.3.1 ResNet50模型和参数的载入
2.3.2 使用ResNet50作为特征提取层建立模型
2.4 本章小结
第3章 深度学习的理论基础
3.1 BP神经网络简介
3.2 BP神经网络两个基础算法详解
3.2.1 最小二乘法(LS算法)详解
3.2.2 道士下山的故事——梯度下降算法
3.3 反馈神经网络反向传播算法介绍
3.3.1 深度学习基础
3.3.2 链式求导法则
3.3.3 反馈神经网络原理与公式推导
3.3.4 反馈神经网络原理的激活函数
3.3.5 反馈神经网络原理的Python实现
3.4 本章小结
第4章 卷积层与MNIST实战
4.1 卷积运算基本概念
4.1.1 卷积运算
4.1.2 TensorFlow中卷积函数实现详解
4.1.3 池化运算
4.1.4 softmax激活函数
4.1.5 卷积神经网络原理
4.2 编程实战:MNIST手写体识别
4.2.1 MNIST数据集
4.2.2 MNIST数据集特征和标签介绍
4.2.3 TensorFlow 2.X编程实战:MNIST数据集
4.2.4 使用自定义的卷积层实现MNIST识别
4.3 本章小结
第5章 TensorFlow Datasets和TensorBoard详解
5.1 TensorFlow Datasets简介
5.1.1 Datasets数据集的安装
5.1.2 Datasets数据集的使用
5.2 Datasets数据集的使用——FashionMNIST
5.2.1 FashionMNIST数据集下载与展示
5.2.2 模型的建立与训练
5.3 使用Keras对FashionMNIST数据集进行处理
5.3.1 获取数据集
5.3.2 数据集的调整
5.3.3 使用Python类函数建立模型
5.3.4 Model的查看和参数打印
5.3.5 模型的训练和评估
5.4 使用TensorBoard可视化训练过程
5.4.1 TensorBoard文件夹的设置
5.4.2 TensorBoard的显式调用
5.4.3 TensorBoard的使用
5.5 本章小结
第6章 从冠军开始:ResNet
6.1 ResNet基础原理与程序设计基础
6.1.1 ResNet诞生的背景
6.1.2 模块工具的TensorFlow实现——不要重复造轮子
6.1.3 TensorFlow高级模块layers用法简介
6.2 ResNet实战:CIFAR100数据集分类
6.2.1 CIFAR100数据集简介
6.2.2 ResNet残差模块的实现
6.2.3 ResNet网络的实现
6.2.4 使用ResNet对CIFAR100数据集进行分类
6.3 ResNet的兄弟——ResNeXt
6.3.1 ResNeXt诞生的背景
6.3.2 ResNeXt残差模块的实现
6.3.3 ResNeXt网络的实现
6.3.4 ResNeXt和ResNet的比较
6.4 本章小结
第7章 有趣的word embedding
7.1 文本数据处理
7.1.1 数据集介绍和数据清洗
7.1.2 停用词的使用
7.1.3 词向量训练模型word2vec使用介绍
7.1.4 文本主题的提取:基于TF-IDF(选学)
7.1.5 文本主题的提取:基于TextRank(选学)
7.2 更多的word embedding方法——fastText和预训练词向量
7.2.1 fastText的原理与基础算法
7.2.2 fastText训练以及与TensorFlow 2.X的协同使用
7.2.3 使用其他预训练参数做TensorFlow词嵌入矩阵(中文)
7.3 针对文本的卷积神经网络模型简介——字符卷积
7.3.1 字符(非单词)文本的处理
7.3.2 卷积神经网络文本分类模型的实现——conv1d(一维卷积)
7.4 针对文本的卷积神经网络模型简介——词卷积
7.4.1 单词的文本处理
7.4.2 卷积神经网络文本分类模型的实现——conv2d(二维卷积)
7.5 使用卷积对文本分类的补充内容
7.5.1 汉字的文本处理
7.5.2 其他细节
7.6 本章小结
第8章 实战——站在冠军肩膀上的情感分类实战
8.1 GRU与情感分类
8.1.1 什么是GRU
8.1.2 使用GRU的情感分类
8.1.3 TensorFlow中的GRU层详解
8.1.4 单向不行就双向
8.2 站在巨人肩膀上的情感分类
8.2.1 使用TensorFlow自带的模型做文本分类
8.2.2 使用自定义的DPCNN做模型分类
8.3 本章小结
第9章 从0起步——自然语言处理的编码器
9.1 编码器的核心——注意力模型
9.1.1 输入层——初始词向量层和位置编码器层
9.1.2 自注意力层(本书重点)
9.1.3 ticks和LayerNormalization
9.1.4 多头自注意力
9.2 编码器的实现
9.2.1 前馈层的实现
9.2.2 构建编码器架构
9.3 实战编码器——汉字拼音转化模型
9.3.1 汉字拼音数据集处理
9.3.2 汉字拼音转化模型的确定
9.3.3 模型训练部分的编写
9.3.4 推断函数的编写
9.4 本章小结
第10章 从1起步——自然语言处理的解码器
10.1 解码器的核心——注意力模型
10.1.1 解码器的输入和交互注意力层的掩码
10.1.2 为什么通过掩码操作能够减少干扰
10.1.3 解码器的输出(移位训练方法)
10.1.4 解码器的实现
10.2 解码器实战——拼音汉字翻译模型
10.2.1 翻译模型
10.2.2 拼音汉字模型的训练(注意训练过程的错位数据输入)
10.2.3 拼音汉字模型的使用(循环输出的问题)
10.3 本章小结
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜