万本电子书0元读

万本电子书0元读

顶部广告

Python深度学习(第2版)电子书

近年来,深度学习在自然语言处理、计算机视觉等领域取得了非凡的展。从机器翻译和文本生成到自动驾驶和虚拟助手,我们受益于深度学习技术的逐渐普及。然而,深度学习还远未发挥全部潜力。欢迎来到深度学习的世界!在这个规模呈爆发式增长的领域,仍有许多“宝藏”等待你去发掘。 本书由流行深度学习框架Keras之父弗朗索瓦·肖莱执笔,不用数学公式,而用Python代码帮助你直观理解深度学习的核心思想。本书在第1版的基础上行了大幅更新和增补,以体现深度学习领域的快速发展。

售       价:¥

纸质售价:¥64.90购买纸书

330人正在读 | 0人评论 6.3

作       者:[美] 弗朗索瓦·肖莱(François Chollet) 著

出  版  社:人民邮电出版社有限公司

出版时间:2022-08-01

字       数:45.4万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
本书由流行深度学习框架Keras之父弗朗*瓦·肖莱执笔,通过直观的解释和丰富的示例帮助你构建深度学习知识体系。作者避免使用数学符号,转而采用Python代码来解释深度学习的核心思想。全书共计14章,既涵盖了深度学习的基本原理,又体现了这一迅猛发展的领域在近几年里取得的重要展,包括Transformer架构的原理和示例。读完本书后,你将能够使用Keras解决从计*机视觉到自然语言处理等现实世界的诸多问题,包括图像分类、图像分割、时间序列预测、文本分类、机器翻译、文本生成等。<br/>【推荐语】<br/>近年来,深度学习在自然语言处理、计*机视觉等领域取得了非凡的展。从机器翻译和文本生成到自动驾驶和虚拟助手,我们受益于深度学习技术的逐渐普及。然而,深度学习还远未发挥全部潜力。欢迎来到深度学习的世界!在这*规模呈爆发式增长的领域,仍有许多“宝藏”等待你去发掘。 本书由流行深度学习框架Keras之父弗朗*瓦·肖莱执笔,不用数学公式,而用Python代码帮助你直观理解深度学习的核心思想。本书在第1版的基础上行了大幅更新和增补,以体现深度学习领域的快速发展。 - Keras和TensorFlow门:详解实践深度学习所需的全部知识 - 神经网络门:分类与回归 - 计*机视觉、时间序列预测、生成式深度学习 - 新增Transformer架构的原理及用法 - 新增机器学习的工作流程 - 随书提供Jupyter notebook,采用TensorFlow 2.6<br/>【作者】<br/>【作者简介】 弗朗*瓦·肖莱(Franc?ois Chollet) 谷歌公司深度学习科学家,流行深度学习框架Keras之父。Keras的GitHub星标数近6万,用户数量已超100万。此外,他也是TensorFlow框架的贡献者,*人Kaggle竞赛全球排名曾获第17名。利用Keras,他致力于普及深度学习技术和实现通用人工智能。 【译者简介】 张亮(hysic) 毕业于北京大学物理学院,核安全高级工程师,深谙机器学习和数据分析,译有《Python机器学习基础教程》《Python数据处理》等。<br/>
目录展开

版权声明

献词

前言

致谢

关于本书

谁应该阅读本书

关于代码

本书论坛

更多信息

关于封面

第 1 章 什么是深度学习

1.1 人工智能、机器学习和深度学习

1.1.1 人工智能

1.1.2 机器学习

1.1.3 从数据中学习规则与表示

1.1.4 深度学习之“深度”

1.1.5 用三张图理解深度学习的工作原理

1.1.6 深度学习已取得的进展

1.1.7 不要相信短期炒作

1.1.8 人工智能的未来

1.2 深度学习之前:机器学习简史

1.2.1 概率建模

1.2.2 早期神经网络

1.2.3 核方法

1.2.4 决策树、随机森林和梯度提升机

1.2.5 到神经网络

1.2.6 深度学习有何不同

1.2.7 机器学习现状

1.3 为什么要用深度学习,为什么是现在

1.3.1 硬件

1.3.2 数据

1.3.3 算法

1.3.4 新一轮投资热潮

1.3.5 深度学习的普及

1.3.6 这种趋势会持续下去吗

第 2 章 神经网络的数学基础

2.1 初识神经网络

2.2 神经网络的数据表示

2.2.1 标量(0 阶张量)

2.2.2 向量(1 阶张量)

2.2.3 矩阵(2 阶张量)

2.2.4 3 阶张量与更高阶的张量

2.2.5 关键属性

2.2.6 在 NumPy 中操作张量

2.2.7 数据批量的概念

2.2.8 现实世界中的数据张量实例

2.2.9 向量数据

2.2.10 时间序列数据或序列数据

2.2.11 图像数据

2.2.12 视频数据

2.3 神经网络的“齿轮”:张量运算

2.3.1 逐元素运算

2.3.2 广播

2.3.3 张量积

2.3.4 张量变形

2.3.5 张量运算的几何解释

2.3.6 深度学习的几何解释

2.4 神经网络的“引擎”:基于梯度的优化

2.4.1 什么是导数

2.4.2 张量运算的导数:梯度

2.4.3 随机梯度下降

2.4.4 链式求导:反向传播算法

2.5 顾第一个例子

2.5.1 用 TensorFlow 从头开始重新实现第一个例子

2.5.2 完成一次训练步骤

2.5.3 完整的训练循环

2.5.4 评估模型

2.6 本章总结

第 3 章 Keras 和 TensorFlow 入门

3.1 TensorFlow 简介

3.2 Keras 简介

3.3 Keras 和 TensorFlow 简史

3.4 建立深度学习工作区

3.4.1 Jupyter 笔记本:运行深度学习实验的首选方法

3.4.2 使用 Colaboratory

3.5 TensorFlow 入门

3.5.1 常数张量和变量

3.5.2 张量运算:用 TensorFlow 进行数学运算

3.5.3 重温 GradientTape API

3.5.4 一个端到端的例子:用 TensorFlow 编写线性分类器

3.6 神经网络剖析:了解核心 Keras API

3.6.1 层:深度学习的基础模块

3.6.2 从层到模型

3.6.3 编译步骤:配置学习过程

3.6.4 选择损失函数

3.6.5 理解 fit() 方法

3.6.6 监控验证数据上的损失和指标

3.6.7 推断:在训练后使用模型

3.7 本章总结

第 4 章 神经网络入门:分类与回归

4.1 影评分类:二分类问题示例

4.1.1 IMDB 数据集

4.1.2 准备数据

4.1.3 构建模型

4.1.4 验证你的方法

4.1.5 利用训练好的模型对新数据进行预测

4.1.6 进一步实验

4.1.7 小结

4.2 新闻分类:多分类问题示例

4.2.1 路透社数据集

4.2.2 准备数据

4.2.3 构建模型

4.2.4 验证你的方法

4.2.5 对新数据进行预测

4.2.6 处理标签和损失的另一种方法

4.2.7 拥有足够大的中间层的重要性

4.2.8 进一步实验

4.2.9 小结

4.3 预测房价:标量归问题示例

4.3.1 波士顿房价数据集

4.3.2 准备数据

4.3.3 构建模型

4.3.4 利用 K 折交叉验证来验证你的方法

4.3.5 对新数据进行预测

4.3.6 小结

4.4 本章总结

第 5 章 机器学习基础

5.1 泛化:机器学习的目标

5.1.1 欠拟合与过拟合

5.1.2 深度学习泛化的本质

5.2 评估机器学习模型

5.2.1 训练集、验证集和测试集

5.2.2 超越基于常识的基准

5.2.3 模型评估的注意事项

5.3 改进模型拟合

5.3.1 调节关键的梯度下降参数

5.3.2 利用更好的架构预设

5.3.3 提高模型容量

5.4 提高泛化能力

5.4.1 数据集管理

5.4.2 特征工程

5.4.3 提前终止

5.4.4 模型正则化

5.5 本章总结

第 6 章 机器学习的通用工作流程

6.1 定义任务

6.1.1 定义问题

6.1.2 收集数据集

6.1.3 理解数据

6.1.4 选择衡量成功的指标

6.2 开发模型

6.2.1 准备数据

6.2.2 选择评估方法

6.2.3 超越基准

6.2.4 扩大模型规模:开发一个过拟合的模型

6.2.5 模型正则化与调节超参数

6.3 部署模型

6.3.1 向利益相关者解释你的工作并设定预期

6.3.2 部署推断模型

6.3.3 监控模型在真实环境中的性能

6.3.4 维护模型

6.4 本章总结

第 7 章 深入 Keras

7.1 Keras 工作流程

7.2 构建 Keras 模型的不同方法

7.2.1 序贯模型

7.2.2 函数式 API

7.2.3 模型子类化

7.2.4 混合使用不同的组件

7.2.5 用正确的工具完成工作

7.3 使用内置的训练循环和评估循环

7.3.1 编写自定义指标

7.3.2 使用调函数

7.3.3 编写自定义调函数

7.3.4 利用 TensorBoard 进行监控和可视化

7.4 编写自定义的训练循环和评估循环

7.4.1 训练与推断

7.4.2 指标的低阶用法

7.4.3 完整的训练循环和评估循环

7.4.4 利用 tf.function 加快运行速度

7.4.5 在 fit() 中使用自定义训练循环

7.5 本章总结

第 8 章 计算机视觉深度学习入门

8.1 卷积神经网络入门

8.1.1 卷积运算

8.1.2 最大汇聚运算

8.2 在小型数据集上从头开始训练一个卷积神经网络

8.2.1 深度学习对数据量很小的问题的适用性

8.2.2 下载数据

8.2.3 构建模型

8.2.4 数据预处理

8.2.5 使用数据增强

8.3 使用预训练模型

8.3.1 使用预训练模型做特征提取

8.3.2 微调预训练模型

8.4 本章总结

第 9 章 计算机视觉深度学习进阶

9.1 三项基本的计算机视觉任务

9.2 图像分割示例

9.3 现代卷积神经网络架构模式

9.3.1 模块化、层次结构和复用

9.3.2 残差连接

9.3.3 批量规范化

9.3.4 深度可分离卷积

9.3.5 综合示例:一个类似 Xception 的迷你模型

9.4 解释卷积神经网络学到的内容

9.4.1 中间激活值的可视化

9.4.2 卷积神经网络滤波器的可视化

9.4.3 类激活热力图的可视化

9.5 本章总结

第 10 章 深度学习处理时间序列

10.1 不同类型的时间序列任务

10.2 温度预测示例

10.2.1 准备数据

10.2.2 基于常识、不使用机器学习的基准

10.2.3 基本的机器学习模型

10.2.4 一维卷积模型

10.2.5 第一个 RNN 基准

10.3 理解 RNN

Keras 中的循环层

10.4 RNN 的高级用法

10.4.1 利用循环 dropout 降低过拟合

10.4.2 循环层堆叠

10.4.3 使用双向 RNN

10.4.4 进一步实验

10.5 本章总结

第 11 章 深度学习处理文本

11.1 自然语言处理概述

11.2 准备文本数据

11.2.1 文本标准化

11.2.2 文本拆分(词元化)

11.2.3 建立词表索引

11.2.4 使用 TextVectorization 层

11.3 表示单词组的两种方法:集合和序列

11.3.1 准备 IMDB 影评数据

11.3.2 将单词作为集合处理:词袋方法

11.3.3 将单词作为序列处理:序列模型方法

11.4 Transformer 架构

11.4.1 理解自注意力

11.4.2 多头注意力

11.4.3 Transformer 编码器

11.4.4 何时使用序列模型而不是词袋模型

11.5 超越文本分类:序列到序列学习

11.5.1 机器翻译示例

11.5.2 RNN 的序列到序列学习

11.5.3 使用 Transformer 进行序列到序列学习

11.6 本章总结

第 12 章 生成式深度学习

12.1 文本生成

12.1.1 生成式深度学习用于序列生成的简史

12.1.2 如何生成序列数据

12.1.3 采样策略的重要性

12.1.4 用 Keras 实现文本生成

12.1.5 带有可变温度采样的文本生成调函数

12.1.6 小结

12.2 DeepDream

12.2.1 用 Keras 实现 DeepDream

12.2.2 小结

12.3 神经风格迁移

12.3.1 内容损失

12.3.2 风格损失

12.3.3 用 Keras 实现神经风格迁移

12.3.4 小结

12.4 用变分自编码器生成图像

12.4.1 从图像潜在空间中采样

12.4.2 图像编辑的概念向量

12.4.3 变分自编码器

12.4.4 用 Keras 实现变分自编码器

12.4.5 小结

12.5 生成式对抗网络入门

12.5.1 简要实现流程

12.5.2 诸多技巧

12.5.3 CelebA 数据集

12.5.4 判别器

12.5.5 生成器

12.5.6 对抗网络

12.5.7 小结

12.6 本章总结

第 13 章 适合现实世界的最佳实践

13.1 将模型性能发挥到极致

13.1.1 超参数优化

13.1.2 模型集成

13.2 加速模型训练

13.2.1 使用混合精度加快 GPU 上的训练速度

13.2.2 多 GPU 训练

13.2.3 TPU 训练

13.3 本章总结

第 14 章 总结

14.1 重点概念顾

14.1.1 人工智能的多种方法

14.1.2 深度学习在机器学习领域中的特殊之处

14.1.3 如何看待深度学习

14.1.4 关键的推动技术

14.1.5 机器学习的通用工作流程

14.1.6 关键网络架构

14.1.7 可能性空间

14.2 深度学习的局限性

14.2.1 将机器学习模型拟人化的风险

14.2.2 自动机与智能体

14.2.3 局部泛化与极端泛化

14.2.4 智能的目的

14.2.5 逐步提高泛化能力

14.3 如何实现更加通用的人工智能

14.3.1 设定正确目标的重要性:捷径法则

14.3.2 新目标

14.4 实现智能:缺失的内容

14.4.1 智能是对抽象类比的敏感性

14.4.2 两种抽象

14.4.3 深度学习所缺失的那一半

14.5 深度学习的未来

14.5.1 模型即程序

14.5.2 将深度学习与程序合成融合

14.5.3 终身学习和模块化子程序复用

14.5.4 长期愿景

14.6 了解快速发展的领域的最新进展

14.6.1 在 Kaggle 上练习解决现实世界的问题

14.6.2 在 arXiv 上了解最新进展

14.6.3 探索 Keras 生态系统

14.7 结束语

作者简介

看完了

累计评论(1条) 2个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部