万本电子书0元读

万本电子书0元读

顶部广告

深度学习:从基础到实践(上、下册)电子书

1.“计算机图形研究领域受尊敬的天才之一”Andrew Glassner编写。 2. 基本概念 理论,不涉及复杂的数学内容。 3. 近千张图和简单的例子,由浅深地讲解深度学习的相关知识。

售       价:¥

纸质售价:¥157.80购买纸书

287人正在读 | 0人评论 6.4

作       者:安德鲁·格拉斯纳(Andrew Glassner) 著

出  版  社:人民邮电出版社有限公司

出版时间:2022-12-01

字       数:73.3万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书从基本概念和理论手,通过近千张图和简单的例子由浅深地讲解深度学习的相关知识,且不涉及复杂的数学内容。 本书分为上下两册。上册着重介绍深度学习的基础知识,旨在帮助读者建立扎实的知识储备,主要介绍随机性与基础统计学、训练与测试、过拟合与欠拟合、神经元、学习与推理、数据准备、分类器、集成算法、前馈网络、激活函数、反向传播等内容。下册介绍机器学习的 scikit-learn 库和深度学习的 Keras 库(这两种库均基于 Python 语言),以及卷积神经网络、循环神经网络、自编码器、强化学习、生成对抗网络等内容,还介绍了一些创造性应用,并给出了一些典型的数据集,以帮助读者更好地了解学习。 本书适合想要了解和使用深度学习的人阅读,也可作为深度学习教学培训领域的门级参考用书。<br/>【推荐语】<br/>1.“计算机图形研究领域受尊敬的天才之一”Andrew Glassner编写。 2. 基本概念 理论,不涉及复杂的数学内容。 3. 近千张图和简单的例子,由浅深地讲解深度学习的相关知识。<br/>【作者】<br/>Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域受尊敬的天才之一。”<br/>
目录展开

版 权

内 容 提 要

译 者 序

前 言

本书内容

为什么写这本书

本书几乎不涉及数学问题

本书分上下两册

致谢

参考资料

资源与支持

配套资源

扫码关注本书

与我们联系

关于异步社区和异步图书

第1章 机器学习与深度学习入门

1.1 为什么这一章出现在这里

1.2 从标记数据中学习

1.3 监督学习

1.4 无监督学习

1.5 生成器

1.6 强化学习

1.7 深度学习

1.8 接下来会讲什么

参考资料

第2章 随机性与基础统计学

2.1 为什么这一章出现在这里

2.2 随机变量

2.3 一些常见的分布

2.4 独立性

2.5 抽样与放回

2.6 Bootstrapping算法

2.7 高维空间

2.8 协方差和相关性

2.9 Anscombe四重奏

参考资料

第3章 概率

3.1 为什么这一章出现在这里

3.2 飞镖游戏

3.3 初级概率学

3.4 条件概率

3.5 联合概率

3.6 边际概率

3.7 测量的正确性

3.8 混淆矩阵的应用

参考资料

第4章 贝叶斯定理

4.1 为什么这一章出现在这里

4.2 频率论者法则以及贝叶斯法则

4.3 抛硬币

4.4 这枚硬币公平吗

4.5 生活中的贝叶斯定理

4.6 重复贝叶斯定理

4.7 多个假设

参考资料

第5章 曲线和曲面

5.1 为什么这一章出现在这里

5.2 引言

5.3 导数

5.4 梯度

参考资料

第6章 信息论

6.1 为什么这一章出现在这里

6.2 意外程度与语境

6.3 用比特作为单位

6.4 衡量信息

6.5 事件的大小

6.6 自适应编码

6.7 熵

6.8 交叉熵

6.9 KL散度

参考资料

第7章 分类

7.1 为什么这一章出现在这里

7.2 二维分类

7.3 二维多分类

7.4 多维二元分类

7.5 聚类

7.6 维度灾难

参考资料

第8章 训练与测试

8.1 为什么这一章出现在这里

8.2 训练

8.3 测试数据

8.4 验证数据

8.5 交叉验证

8.6 对测试结果的利用

参考资料

第9章 过拟合与欠拟合

9.1 为什么这一章出现在这里

9.2 过拟合与欠拟合

9.3 过拟合数据

9.4 及早停止

9.5 正则化

9.6 偏差与方差

9.7 用贝叶斯法则进行线拟合

参考资料

第10章 神经元

10.1 为什么这一章出现在这里

10.2 真实神经元

10.3 人工神经元

10.4 小结

参考资料

第11章 学习与推理

11.1 为什么这一章出现在这里

11.2 学习的步骤

11.3 演绎和归纳

11.4 演绎

11.5 归纳

11.6 组合推理

11.7 操作条件

参考资料

第12章 数据准备

12.1 为什么这一章出现在这里

12.2 数据变换

12.3 数据类型

12.4 数据清理基础

12.5 归一化和标准化

12.6 特征选择

12.7 降维

12.8 转换

12.9 切片处理

12.10 交叉验证转换

参考资料

第13章 分类器

13.1 为什么这一章出现在这里

13.2 分类器的种类

13.3 k近邻法

13.4 支持向量机

13.5 决策树

13.6 朴素贝叶斯

13.7 讨论

参考资料

第14章 集成算法

14.1 为什么这一章出现在这里

14.2 集成方法

14.3 投票

14.4 套袋算法

14.5 随机森林

14.6 极端随机树

14.7 增强算法

参考资料

第15章 scikit-learn

15.1 为什么这一章出现在这里

15.2 介绍

15.3 Python 约定

15.4 估算器

15.5 聚类

15.6 变换

15.7 数据精化

15.8 集成器

15.9 自动化

15.10 数据集

15.11 实用工具

15.12 结束语

参考资料

第16章 前馈网络

16.1 为什么这一章出现在这里

16.2 神经网络图

16.3 同步与异步流

16.4 权重初始化

参考资料

第17章 激活函数

17.1 为什么这一章出现在这里

17.2 激活函数可以做什么

17.3 基本的激活函数

17.4 阶跃函数

17.5 分段线性函数

17.6 光滑函数

17.7 激活函数画廊

17.8 归一化指数函数

参考资料

第18章 反向传播

18.1 为什么这一章出现在这里

18.2 一种非常慢的学习方式

18.3 现在没有激活函数

18.4 神经元输出和网络误差

18.5 微小的神经网络

18.6 第1步:输出神经元的delta

18.7 第2步:使用delta改变权重

18.8 第3步:其他神经元的delta

18.9 实际应用中的反向传播

18.10 使用激活函数

18.11 学习率

18.12 讨论

参考资料

第19章 优化器

19.1 为什么这一章出现在这里

19.2 几何误差

19.3 调整学习率

19.4 更新策略

19.5 梯度下降变体

19.6 优化器选择

参考资料

第20章 深度学习

20.1 为什么这一章出现在这里

20.2 深度学习概述

20.3 输入层和输出层

20.4 深度学习层纵览

20.5 层和图形符号总结

20.6 一些例子

20.7 构建一个深度学习器

20.8 解释结果

参考资料

第21章 卷积神经网络

21.1 为什么这一章出现在这里

21.2 介绍

21.3 卷积

21.4 高维卷积

21.5 一维卷积

21.6 1×1卷积

21.7 卷积层

21.8 转置卷积

21.9 卷积网络样例

21.10 对手

参考资料

第22章 循环神经网络

22.1 为什么这一章出现在这里

22.2 引言

22.3 状态

22.4 RNN单元的结构

22.5 组织输入

22.6 训练RNN

22.7 LSTM和GRU

22.8 RNN的结构

22.9 一个例子

参考资料

第23章 Keras第1部分

23.1 为什么这一章出现在这里

23.2 库和调试

23.3 概述

23.4 准备开始

23.5 准备数据

23.6 制作模型

23.7 训练模型

23.8 训练和使用模型

23.9 保存和加载

23.10 回调函数

参考资料

第24章 Keras第2部分

24.1 为什么这一章出现在这里

24.2 改进模型

24.3 使用scikit-learn

24.4 卷积网络

24.5 RNN

24.6 函数式API

参考资料

第25章 自编码器

25.1 为什么这一章出现在这里

25.2 引言

25.3 最简单的自编码器

25.4 更好的自编码器

25.5 探索自编码器

25.6 讨论

25.7 卷积自编码器

25.8 降噪

25.9 VAE

25.10 探索VAE

参考资料

第26章 强化学习

26.1 为什么这一章出现在这里

26.2 目标

26.3 强化学习的结构

26.4 翻转

26.5 L学习

26.6 Q学习

26.7 SARSA

26.8 强化学习的全貌

26.9 经验回放

26.10 两个应用

参考资料

第27章 生成对抗网络

27.1 为什么这一章出现在这里

27.2 一个比喻:伪造钞票

27.3 为什么要用“对抗”

27.4 GAN的实现

27.5 实际操作中的GAN

27.6 DCGAN

27.7 挑战

参考资料

第28章 创造性应用

28.1 为什么这一章出现在这里

28.2 可视化过滤器

28.3 deep dreaming

28.4 神经风格迁移

28.5 为本书生成更多的内容

参考资料

第29章 数据集

29.1 公共数据集

29.2 MNIST和Fashion-MNIST

29.3 库的内建数据集

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部