万本电子书0元读

万本电子书0元读

顶部广告

深入理解TensorFlow:架构设计与实现原理电子书

         谷歌机器学习发专家、华为深度学习团队系统工程师、华为深度学习云服务的技术负责人联合编写          中国科学院计算技术研究所副研究员/中国大数据技术大会(BDTC)发起人查礼、“长江学者”特聘教授/浙江大学计算机学院院长陈刚作序              才云科技创始人兼CEO张鑫、Google Brain资深工程师周玥枫、华为人工智能领域主任工程师夏命榛、云账户联合创始人兼CTO邹永强、博拉科技创始人兼CEO周公爽、微软亚洲研究院助理研究员王锦鹏、知衣科技联合创始人兼CEO郑泽宇联合

售       价:¥

纸质售价:¥59.20购买纸书

255人正在读 | 0人评论 6.2

作       者:彭靖田 林健 白小龙

出  版  社:人民邮电出版社

出版时间:2018-05-01

字       数:40.7万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
 本书从基本概念、内部实现和实践等方面深剖析了TensorFlow。书中首先介绍了TensorFlow设计目标、基本架构、环境准备和基础概念,着重介绍了以数据流图为核心的机器学习编程框架的设计原则与核心实现,紧着还将TensorFlow与深度学习相结合,从理论基础和程序实现这两个方面系统介绍了CNN、GAN和RNN等经典模型,然后深剖析了TensorFlow运行时核心、通信原理和数据流图计算的原理与实现,全面介绍了TensorFlow生态系统的发展。<br/>【推荐语】<br/>         谷歌机器学习发专家、华为深度学习团队系统工程师、华为深度学习云服务的技术负责人联合编写          中国科学院计算技术研究所副研究员/中国大数据技术大会(BDTC)发起人查礼、“长江学者”特聘教授/浙江大学计算机学院院长陈刚作序              才云科技创始人兼CEO张鑫、Google Brain资深工程师周玥枫、华为人工智能领域主任工程师夏命榛、云账户联合创始人兼CTO邹永强、博拉科技创始人兼CEO周公爽、微软亚洲研究院助理研究员王锦鹏、知衣科技联合创始人兼CEO郑泽宇联合           不仅介绍如何使用TensorFlow,还剖析了系统设计原理<br/>【作者】<br/>彭靖田,谷歌发专家(Google Developers Experts),Kubeflow Maintainer,TensorFlow Contributor。加州大学圣迭戈分校访问学者,浙江大学竺可桢荣誉和计算机科学双学位。毕业后华为人工智能团队,从零始参与华为深度学习平台设计与研发。2017年作为技术合伙人加才云科技,负责人工智能云平台 Clever,并为能源、运营商、电商等多个行业提供定制化人工智能平台方案。 林健,华为深度学习团队系统工程师。在中科院计算所取得博士学位,并在美国俄亥俄州立大学做过博士后研究。长期从事系统软件研发,工作涉及高性能计算与分布式系统,爱好源软件与人工智能。曾参与发CNGrid GOS、MVAPICH等工业级软件,并合作创建LingCloud、DataMPI等源项目。  白小龙,华为公司深度学习云服务的技术负责人,主要负责深度学习平台、模型和算法的研发。长期从事信号、图像处理和机器学习研究,于2015年6月毕业于浙江大学并取得工学博士学位,曾获*博士生学术新人奖。 <br/>
目录展开

序一

序二

前言

作者简介

第一部分 基础篇

第1章 TensorFlow系统概述

1.1 简介

1.1.1 产生背景

1.1.2 独特价值

1.1.3 版本变迁

1.1.4 与其他主流深度学习框架的对比

1.2 设计目标

1.2.1 灵活通用的深度学习库

1.2.2 端云结合的人工智能引擎

1.2.3 高性能的基础平台软件

1.3 基本架构

1.3.1 工作形态

1.3.2 组件结构

1.4 小结

第2章 TensorFlow环境准备

2.1 安装

2.1.1 TensorFlow安装概述

2.1.2 使用Anaconda安装

2.1.3 使用原生pip安装

2.1.4 使用virtualenv安装

2.1.5 使用Docker安装

2.1.6 使用源代码编译安装

2.1.7 Hello TensorFlow

2.2 依赖项

2.2.1 Bazel软件构建工具

2.2.2 Protocol Buffers数据结构序列化工具

2.2.3 Eigen线性代数计算库

2.2.4 CUDA统一计算设备架构

2.3 源代码结构

2.3.1 根目录

2.3.2 tensorflow目录

2.3.3 tensorflow/core目录

2.3.4 tensorflow/python目录

2.3.5 安装目录

2.4 小结

第3章 TensorFlow基础概念

3.1 编程范式:数据流图

3.1.1 声明式编程与命令式编程

3.1.2 声明式编程在深度学习应用上的优势

3.1.3 TensorFlow数据流图的基本概念

3.2 数据载体:张量

3.2.1 张量:Tensor

3.2.2 稀疏张量:SparseTensor

3.3 模型载体:操作

3.3.1 计算节点:Operation

3.3.2 存储节点:Variable

3.3.3 数据节点:Placeholder

3.4 运行环境:会话

3.4.1 普通会话:Session

3.4.2 交互式会话:InteractiveSession

3.4.3 扩展阅读:会话实现原理

3.5 训练工具:优化器

3.5.1 损失函数与优化算法

3.5.2 优化器概述

3.5.3 使用minimize方法训练模型

3.5.4 扩展阅读:模型训练方法进阶

3.6 一元线性回归模型的最佳实践

3.7 小结

第二部分 关键模块篇

第4章 TensorFlow数据处理方法

4.1 输入数据集

4.1.1 使用输入流水线并行读取数据

4.1.2 创建批样例数据的方法

4.1.3 填充数据节点的方法

4.1.4 处理CIFAR-10数据集的最佳实践

4.1.5 扩展阅读:MNIST数据集

4.2 模型参数

4.2.1 模型参数的典型使用流程

4.2.2 使用tf.Variable创建、初始化和更新模型参数

4.2.3 使用tf.train.Saver保存和恢复模型参数

4.2.4 使用变量作用域处理复杂模型

4.3 命令行参数

4.3.1 使用argparse解析命令行参数

4.3.2 使用tf.app.flags解析命令行参数

4.4 小结

第5章 TensorFlow编程框架

5.1 单机程序编程框架

5.1.1 概述

5.1.2 创建单机数据流图

5.1.3 创建并运行单机会话

5.2 分布式程序编程框架

5.2.1 PS-worker架构概述

5.2.2 分布式程序编程框架概述

5.2.3 创建TensorFlow集群

5.2.4 将操作放置到目标设备

5.2.5 数据并行模式

5.2.6 同步训练机制

5.2.7 异步训练机制

5.2.8 使用Supervisor管理模型训练

5.2.9 分布式同步训练的最佳实践

5.3 小结

第6章 TensorBoard可视化工具

6.1 概述

TensorBoard使用流程

6.2 可视化数据流图

6.2.1 名字作用域与抽象节点

6.2.2 可视化数据流图的最佳实践

6.2.3 扩展阅读:汇总数据和事件数据

6.2.4 扩展阅读:揭秘tf.summary.FileWriter工作原理

6.3 可视化学习过程

6.3.1 汇总操作概述

6.3.2 使用tf.summary.scalar生成折线图

6.3.3 使用tf.summary.histogram生成数据分布图

6.3.4 使用tf.summary.image生成图像

6.3.5 使用tf.summary.audio生成音频

6.3.6 可视化MNIST softmax模型学习过程的最佳实践

6.4 可视化高维数据

6.4.1 使用TensorBoard可视化高维数据

6.4.2 可视化MNIST数据集的最佳实践

6.5 小结

第7章 模型托管工具:TensorFlow Serving

7.1 概述

7.2 系统架构

7.3 安装

7.3.1 使用APT安装ModelServer

7.3.2 使用源码编译安装ModelServer

7.4 最佳实践

7.4.1 导出模型

7.4.2 发布模型服务

7.4.3 更新线上模型服务

7.5 小结

第三部分 算法模型篇

第8章 深度学习概述

8.1 深度学习的历史

8.1.1 感知机模型与神经网络

8.1.2 神经网络的寒冬与复苏

8.1.3 神经网络的发展与第二次寒冬

8.1.4 深度学习时代的到来

8.2 深度学习的主要应用

8.2.1 计算机视觉

8.2.2 自然语言处理

8.2.3 强化学习

8.3 深度学习与TensorFlow

8.4 小结

第9章 CNN模型

9.1 CNN

9.1.1 CNN简介

9.1.2 卷积层

9.1.3 激活层

9.1.4 池化层

9.1.5 全连接层

9.1.6 Dropout层

9.1.7 BN层

9.1.8 常用的CNN图像分类模型

9.2 TensorFlow-Slim

9.2.1 TensorFlow-Slim总体结构

9.2.2 datasets包和data包

9.2.3 preprocessing包

9.2.4 deployment包

9.2.5 nets包

9.2.6 TensorFlow-Slim最佳实践

9.3 应用

9.3.1 物体检测

9.3.2 图像分割

9.4 小结

第10章 GAN模型

10.1 原理、特点及应用

10.1.1 原理

10.1.2 特点

10.1.3 应用

10.2 GAN模型的改进

10.2.1 CGAN模型

10.2.2 LAPGAN模型

10.2.3 DCGAN模型

10.2.4 InfoGAN模型

10.2.5 LSGAN模型

10.2.6 WGAN模型

10.3 最佳实践

10.4 小结

第11章 RNN模型

11.1 基本RNN单元及其变种

11.1.1 RNN模型简介

11.1.2 基本RNN单元

11.1.3 LSTM单元

11.1.4 GRU单元

11.1.5 双向RNN单元

11.1.6 带有其他特性的RNN单元

11.2 RNN模型

11.2.1 PTB-LSTM语言模型

11.2.2 Seq2Seq模型

11.3 小结

第四部分 核心揭秘篇

第12章 TensorFlow运行时核心设计与实现

12.1 运行时框架概述

12.2 关键数据结构

12.2.1 张量相关数据结构

12.2.2 设备相关数据结构

12.2.3 数据流图相关的数据结构

12.3 公共基础机制

12.3.1 内存分配

12.3.2 线程管理

12.3.3 多语言接口

12.3.4 XLA编译技术

12.3.5 单元测试框架

12.4 外部环境接口

12.4.1 加速器硬件接口

12.4.2 系统软件接口

12.5 小结

第13章 通信原理与实现

13.1 概述

13.2 进程内通信

13.2.1 通信接口

13.2.2 会合点机制

13.2.3 异构设备内存访问

13.3 进程间通信

13.3.1 gRPC通信机制

13.3.2 控制通信

13.3.3 数据通信

13.4 RDMA通信模块

13.4.1 模块结构

13.4.2 消息语义

13.4.3 通信流程

13.5 小结

第14章 数据流图计算原理与实现

14.1 概述

14.2 数据流图创建

14.2.1 流程与抽象

14.2.2 全图构造

14.2.3 子图提取

14.2.4 图切分

14.2.5 图优化

14.3 单机会话运行

14.3.1 流程与抽象

14.3.2 执行器获取

14.3.3 输入数据填充

14.3.4 图运行

14.3.5 输出数据获取

14.3.6 张量保存

14.4 分布式会话运行

14.4.1 主-从模型

14.4.2 主要抽象

14.4.3 client创建会话

14.4.4 client请求图运行

14.4.5 master驱动图运行

14.4.6 worker实施图运行

14.5 操作节点执行

14.5.1 核函数抽象

14.5.2 CPU上的执行流程

14.5.3 CUDA GPU上的执行流程

14.6 小结

第五部分 生态发展篇

第15章 TensorFlow生态环境

15.1 生态环境概况

15.1.1 社区托管组件

15.1.2 第三方项目

15.2 深度神经网络库Keras

15.2.1 概述

15.2.2 模型概述

15.2.3 顺序模型

15.2.4 函数式模型

15.3 TensorFlow与Kubernetes生态的结合

15.4 TensorFlow与Spark生态的结合

15.5 TensorFlow通信优化技术

15.6 TPU及神经网络处理器

15.7 NNVM模块化深度学习组件

15.8 TensorFlow未来展望——TFX

15.9 小结

附录A 常见问题解决方案

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部