万本电子书0元读

万本电子书0元读

顶部广告

谷歌JAX深度学习从零开始学电子书

 JAX是一个用于高性能数值计算的Python库,专门为深度学习领域的高性能计算而设计。本书详解JAX框架深度学习的相关知识,并剖析3个实战案例: 使用ResNet完成CIFAR100数据集分类、有趣的词嵌与生成对抗网络。本书配套示例源码、PPT课件、数据集、发环境和答疑服务。

售       价:¥

纸质售价:¥62.40购买纸书

19人正在读 | 0人评论 6.5

作       者:王晓华

出  版  社:清华大学出版社

出版时间:2022-06-01

字       数:20.1万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
JAX是一个用于高性能数值计算的Python库,专门为深度学习领域的高性能计算而设计。本书详解JAX框架深度学习的相关知识,配套示例源码、PPT课件、数据集和发环境。 本书共分为13章,内容包括JAX从零始,一学就会的线性回归、多层感知机与自动微分器,深度学习的理论基础,XLA与JAX一般特性,JAX的高级特性,JAX的一些细节,JAX中的卷积,JAX与TensorFlow的比较与交互,遵循JAX函数基本规则下的自定义函数,JAX中的高级包。后给出3个实战案例:使用ResNet完成CIFAR100数据集分类,有趣的词嵌,生成对抗网络(GAN)。 本书适合JAX框架初学者、深度学习初学者以及深度学习从业人员,也适合作为高等院校和培训机构人工智能相关专业的师生教学参考书。<br/>【推荐语】<br/> JAX是一个用于高性能数值计算的Python库,专门为深度学习领域的高性能计算而设计。本书详解JAX框架深度学习的相关知识,并剖析3个实战案例: 使用ResNet完成CIFAR100数据集分类、有趣的词嵌与生成对抗网络。本书配套示例源码、PPT课件、数据集、发环境和答疑服务。<br/>【作者】<br/>王晓华,计算机专业讲师,研究方向为云计算、大数据与人工智能。著有《Spark MLlib机器学习实践》《TensorFlow深度学习应用实践》《OpenCV TensorFlow深度学习与计算机视觉实战》《TensorFlow知识图谱实战》《TensorFlow人脸识别实战》《TensorFlow语音识别实战》《TensorFlow 2.0卷积神经网络实战》《Keras实战:基于TensorFlow2.2的深度学习实践》《TensorFlow深度学习从零始学》《深度学习的数学原理与实现》等图书。<br/>
目录展开

内容简介

前言

深度学习图书推荐

第1章 JAX从零开始

1.1 JAX来了

1.1.1 JAX是什么

1.1.2 为什么是JAX

1.2 JAX的安装与使用

1.2.1 Windows Subsystem for Linux的安装

1.2.2 JAX的安装和验证

1.2.3 PyCharm的下载与安装

1.2.4 使用PyCharm和JAX

1.2.5 JAX的Python代码小练习:计算SeLU函数

1.3 JAX实战——MNIST手写体的识别

1.3.1 第一步:准备数据集

1.3.2 第二步:模型的设计

1.3.3 第三步:模型的训练

1.4 本章小结

第2章 一学就会的线性回归、多层感知机与自动微分器

2.1 多层感知机

2.1.1 全连接层—多层感知机的隐藏层

2.1.2 使用JAX实现一个全连接层

2.1.3 更多功能的全连接函数

2.2 JAX实战—鸢尾花分类

2.2.1 鸢尾花数据准备与分析

2.2.2 模型分析—采用线性回归实战鸢尾花分类

2.2.3 基于JAX的线性回归模型的编写

2.2.4 多层感知机与神经网络

2.2.5 基于JAX的激活函数、softmax函数与交叉熵函数

2.2.6 基于多层感知机的鸢尾花分类实战

2.3 自动微分器

2.3.1 什么是微分器

2.3.2 JAX中的自动微分

2.4 本章小结

第3章 深度学习的理论基础

3.1 BP神经网络简介

3.2 BP神经网络两个基础算法详解

3.2.1 最小二乘法详解

3.2.2 道士下山的故事—梯度下降算法

3.2.3 最小二乘法的梯度下降算法以及JAX实现

3.3 反馈神经网络反向传播算法介绍

3.3.1 深度学习基础

3.3.2 链式求导法则

3.3.3 反馈神经网络原理与公式推导

3.3.4 反馈神经网络原理的激活函数

3.3.5 反馈神经网络原理的Python实现

3.4 本章小结

第4章 XLA与JAX一般特性

4.1 JAX与XLA

4.1.1 XLA如何运行

4.1.2 XLA如何工作

4.2 JAX一般特性

4.2.1 利用JIT加快程序运行

4.2.2 自动微分器—grad函数

4.2.3 自动向量化映射—vmap函数

4.3 本章小结

第5章 JAX的高级特性

5.1 JAX与NumPy

5.1.1 像NumPy一样运行的JAX

5.1.2 JAX的底层实现lax

5.1.3 并行化的JIT机制与不适合使用JIT的情景

5.1.4 JIT的参数详解

5.2 JAX程序的编写规范要求

5.2.1 JAX函数必须要为纯函数

5.2.2 JAX中数组的规范操作

5.2.3 JIT中的控制分支

5.2.4 JAX中的if、while、for、scan函数

5.3 本章小结

第6章 JAX的一些细节

6.1 JAX中的数值计算

6.1.1 JAX中的grad函数使用细节

6.1.2 不要编写带有副作用的代码—JAX与NumPy的差异

6.1.3 一个简单的线性回归方程拟合

6.2 JAX中的性能提高

6.2.1 JIT的转换过程

6.2.2 JIT无法对非确定参数追踪

6.2.3 理解JAX中的预编译与缓存

6.3 JAX中的函数自动打包器—vmap

6.3.1 剥洋葱—对数据的手工打包

6.3.2 剥甘蓝—JAX中的自动向量化函数vmap

6.3.3 JAX中高阶导数的处理

6.4 JAX中的结构体保存方法Pytrees

6.4.1 Pytrees是什么

6.4.2 常见的pytree函数

6.4.3 深度学习模型参数的控制(线性模型)

6.4.4 深度学习模型参数的控制(非线性模型)

6.4.5 自定义的Pytree节点

6.4.6 JAX数值计算的运行机制

6.5 本章小结

第7章 JAX中的卷积

7.1 什么是卷积

7.1.1 卷积运算

7.1.2 JAX中的一维卷积与多维卷积的计算

7.1.3 JAX.lax中的一般卷积的计算与表示

7.2 JAX实战—基于VGG架构的MNIST数据集分类

7.2.1 深度学习Visual Geometry Group(VGG)架构

7.2.2 VGG中使用的组件介绍与实现

7.2.3 基于VGG6的MNIST数据集分类实战

7.3 本章小结

第8章 JAX与TensorFlow的比较与交互

8.1 基于TensorFlow的MNIST分类

8.2 TensorFlow与JAX的交互

8.2.1 基于JAX的TensorFlow Datasets数据集分类实战

8.2.2 TensorFlow Datasets数据集库简介

8.3 本章小结

第9章 遵循JAX函数基本规则下的自定义函数

9.1 JAX函数的基本规则

9.1.1 使用已有的原语

9.1.2 自定义的JVP以及反向VJP

9.1.3 进阶jax.custom_jvp和jax.custom_vjp函数用法

9.2 Jaxpr解释器的使用

9.2.1 Jaxpr tracer

9.2.2 自定义的可以被Jaxpr跟踪的函数

9.3 JAX维度名称的使用

9.3.1 JAX的维度名称

9.3.2 自定义JAX中的向量Tensor

9.4 本章小结

第10章 JAX中的高级包

10.1 JAX中的包

10.1.1 jax.numpy的使用

10.1.2 jax.nn的使用

10.2 jax.experimental包和jax.example_libraries的使用

10.2.1 jax.experimental.sparse的使用

10.2.2 jax.experimental.optimizers模块的使用

10.2.3 jax.experimental.stax的使用

10.3 本章小结

第11章 JAX实战——使用ResNet完成CIFAR100数据集分类

11.1 ResNet基础原理与程序设计基础

11.1.1 ResNet诞生的背景

11.1.2 使用JAX中实现的部件—不要重复造轮子

11.1.3 一些stax模块中特有的类

11.2 ResNet实战—CIFAR100数据集分类

11.2.1 CIFAR100数据集简介

11.2.2 ResNet残差模块的实现

11.2.3 ResNet网络的实现

11.2.4 使用ResNet对CIFAR100数据集进行分类

11.3 本章小结

第12章 JAX实战—有趣的词嵌入

12.1 文本数据处理

12.1.1 数据集和数据清洗

12.1.2 停用词的使用

12.1.3 词向量训练模型word2vec的使用

12.1.4 文本主题的提取:基于TF-IDF

12.1.5 文本主题的提取:基于TextRank

12.2 更多的词嵌入方法—FastText和预训练词向量

12.2.1 FastText的原理与基础算法

12.2.2 FastText训练以及与JAX的协同使用

12.2.3 使用其他预训练参数嵌入矩阵(中文)

12.3 针对文本的卷积神经网络模型—字符卷积

12.3.1 字符(非单词)文本的处理

12.3.2 卷积神经网络文本分类模型的实现—conv1d(一维卷积)

12.4 针对文本的卷积神经网络模型——词卷积

12.4.1 单词的文本处理

12.4.2 卷积神经网络文本分类模型的实现

12.5 使用卷积对文本分类的补充内容

12.5.1 中文的文本处理

12.5.2 其他细节

12.6 本章小结

第13章 JAX实战—生成对抗网络(GAN)

13.1 GAN的工作原理详解

13.1.1 生成器与判别器共同构成了一个GAN

13.1.2 GAN是怎么工作的

13.2 GAN的数学原理详解

13.2.1 GAN的损失函数

13.2.2 生成器的产生分布的数学原理—相对熵简介

13.3 JAX实战—GAN网络

13.3.1 生成对抗网络GAN的实现

13.3.2 GAN的应用前景

13.4 本章小结

附录 Windows 11安装GPU版本的JAX

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部