为你推荐
版权页
前言
目录
第1章 TensorFlow与深度学习
1.1 深度学习的由来
1.2 语言与系统的支持
1.3 TensorFlow的特点
1.4 核心组件
1.5 TensorFlow的主要依赖包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建环境
1.6.1 安装环境
1.6.2 安装TensorFlow
1.6.3 安装测试
1.7 Geany
1.8 揭开深度学习的面纱
1.8.1 人工智能、机器学习与深度学习
1.8.2 深度学习的核心思想
1.8.3 深度学习的应用
1.9 深度学习的优劣势
第2章 TensorFlow编程基础
2.1 张量
2.1.1 张量的概念
2.1.2 张量的使用
2.1.3 Numpy库
2.1.4 张量的阶
2.1.5 张量的形状
2.1.6 张量应用实例
2.2 图的实现
2.3 会话的实现
2.4 认识变量
2.4.1 变量的创建
2.4.2 变量的初始化
2.4.3 变量的更新
2.4.4 变量的保存
2.4.5 变量的加载
2.4.6 共享变量和变量命名空间
2.5 矩阵的操作
2.5.1 矩阵的生成
2.5.2 矩阵的变换
2.6 TensorFlow数据读取的方式
2.7 从磁盘读取信息
2.7.1 列表格式
2.7.2 读取图像数据
第3章 TensorFlow编程进阶
3.1 队列与线程
3.1.1 队列
3.1.2 队列管理器
3.1.3 线程协调器
3.1.4 组合使用
3.2 TensorFlow嵌入Layer
3.3 生成随机图片数据
3.4 神经网络
3.4.1 神经元
3.4.2 简单神经结构
3.4.3 深度神经网络
3.5 损失函数
3.6 梯度下降
3.6.1 标准梯度法
3.6.2 批量梯度下降法
3.6.3 随机梯度下降法
3.6.4 小批量梯度下降法
3.6.5 线性模型的局限性
3.6.6 直线与曲线的拟合演示
3.7 反向传播
3.7.1 求导链式法则
3.7.2 反向传播算法思路
3.7.3 反向传播算法的计算过程
3.7.4 反向传播演示回归与二分类算法
3.8 随机训练与批量训练
3.9 创建分类器
3.10 模型评估
3.11 优化函数
3.11.1 随机梯度下降优化算法
3.11.2 基于动量的优化算法
3.11.3 Adagrad优化算法
3.11.4 Adadelta优化算法
3.11.5 Adam优化算法
3.11.6 实例演示几种优化算法
第4章 TensorFlow实现线性回归
4.1 矩阵操作实现线性回归问题
4.1.1 逆矩阵解决线性回归问题
4.1.2 矩阵分解法实现线性回归
4.1.3 正则法对iris数据实现回归分析
4.2 损失函数对iris数据实现回归分析
4.3 戴明算法对iris数据实现回归分析
4.4 岭回归与Lasso回归对iris数据实现回归分析
4.5 弹性网络算法对iris数据实现回归分析
第5章 TensorFlow实现逻辑回归
5.1 什么是逻辑回归
5.1.1 逻辑回归与线性回归的关系
5.1.2 逻辑回归模型的代价函数
5.1.3 逻辑回归的预测函数
5.1.4 判定边界
5.1.5 随机梯度下降算法实现逻辑回归
5.2 逆函数及其实现
5.2.1 逆函数的相关函数
5.2.2 逆函数的实现
5.3 Softmax回归
5.3.1 Softmax回归简介
5.3.2 Softmax的代价函数
5.3.3 Softmax回归的求解
5.3.4 Softmax回归的参数特点
5.3.5 Softmax与逻辑回归的关系
5.3.6 多分类算法和二分类算法的选择
5.3.7 计算机视觉领域实例
第6章 TensorFlow实现聚类分析
6.1 支持向量机及实现
6.1.1 重新审视逻辑回归
6.1.2 形式化表示
6.1.3 函数间隔和几何间隔
6.1.4 最优间隔分类器
6.1.5 支持向量机对iris数据进行分类
6.1.6 核函数对数据点进行预测
6.1.7 非线性支持向量机创建山鸢尾花分类器
6.1.8 多类支持向量机对iris数据进行预测
6.2 K-均值聚类法及实现
6.2.1 K-均值聚类相关概念
6.2.2 K-均值聚类法对iris数据进行聚类
6.3 最近邻算法及实现
6.3.1 最近邻算法概述
6.3.2 最近邻算法求解文本距离
6.3.3 最近邻算法实现地址匹配
第7章 神经网络算法
7.1 反向网络
7.1.1 问题设置
7.1.2 反向网络算法
7.1.3 自动微分
7.1.4 对随机数进行反向网络演示
7.2 激励函数及实现
7.2.1 激励函数的用途
7.2.2 几种激励函数
7.2.3 几种激励函数的绘图
7.3 门函数及其实现
7.4 单层神经网络对iris数据进行训练
7.5 单个神经元的扩展及实现
7.6 构建多层神经网络
7.7 实现井字棋
第8章 TensorFlow实现卷积神经网络
8.1 全连接网络的局限性
8.2 卷积神经网络的结构
8.2.1 卷积层
8.2.2 池化层
8.2.3 全连接层
8.3 卷积神经网络的训练
8.3.1 求导的链式法则
8.3.2 卷积层反向传播
8.4 卷积神经网络的实现
8.4.1 识别0和1数字
8.4.2 预测MNIST数字
8.5 几种经典的卷积神经网络及实现
8.5.1 AlexNet网络及实现
8.5.2 VGGNet网络及实现
8.5.3 Inception Net网络及实现
8.5.4 ResNet网络及实现
第9章 TensorFlow实现循环神经网络
9.1 循环神经网络概述
9.1.1 循环神经网络的原理
9.1.2 循环神经网络的应用
9.1.3 损失函数
9.1.4 梯度求解
9.1.5 实现二进制数加法运算
9.1.6 实现拟合回声信号序列
9.2 循环神经网络的训练
9.3 循环神经网络的改进
9.3.1 循环神经网络存在的问题
9.3.2 LSTM网络
9.3.3 LSTM核心思想
9.3.4 LSTM详解与实现
9.3.5 窥视孔连接
9.3.6 GRU网络对MNIST数据集分类
9.3.7 BRNN网络对MNIST数据集分类
9.3.8 CTC实现端到端训练的语音识别模型
第10章 TensorFlow其他网络
10.1 自编码网络及实现
10.1.1 自编码网络的结构
10.1.2 自编码网络的代码实现
10.2 降噪自编码器及实现
10.2.1 降噪自编码器的原理
10.2.2 降噪自编码器的实现
10.3 栈式自编码器及实现
10.3.1 栈式自编码器概述
10.3.2 栈式自编码器训练
10.3.3 栈式自编码器进行MNIST手写数字分类
10.3.4 代替和级联
10.3.5 自编码器的应用场合
10.3.6 自编码器的综合实现
10.4 变分自编码器及实现
10.4.1 变分自编码器的原理
10.4.2 损失函数
10.4.3 变分自编码器模拟生成MNIST数据
10.5 条件变分自编码器及实现
10.5.1 条件变分自编码器概述
10.5.2 条件变分自编码器生成MNIST数据
10.6 对抗神经网络
10.6.1 对抗神经网络的原理
10.6.2 生成模型的应用
10.6.3 对抗神经网络的训练方法
10.7 DCGAN网络及实现
10.7.1 DCGAN网络概述
10.7.2 DCGAN网络模拟MNIST数据
10.8 InfoGAN网络及实现
10.8.1 什么是互信息
10.8.2 互信息的下界
10.8.3 InfoGAN生成MNIST模拟数据
10.9 AEGAN网络及实现
10.9.1 AEGAN网络概述
10.9.2 AEGAN对MNIST数据集压缩及重建
10.10 WGAN-GP网络
10.10.1 WGAN网络
10.10.2 WGAN-GP网络生成MNIST数据集
第11章 TensorFlow机器学习综合实战
11.1 房屋价格的预测
11.1.1 K近邻算法预测房屋价格
11.1.2 卷积神经网络预测房屋价格
11.1.3 深度神经网络预测房屋价格
11.2 卷积神经网络实现人脸识别
11.3 肾癌的转移判断
11.4 比特币的预测
参考文献
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜