1.“计算机图形研究领域受尊敬的天才之一”Andrew Glassner编写。 2. 基本概念 理论,不涉及复杂的数学内容。 3. 近千张图和简单的例子,由浅深地讲解深度学习的相关知识。
售 价:¥
纸质售价:¥157.80购买纸书
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐
版 权
内 容 提 要
译 者 序
前 言
本书内容
为什么写这本书
本书几乎不涉及数学问题
本书分上下两册
致谢
参考资料
资源与支持
配套资源
扫码关注本书
与我们联系
关于异步社区和异步图书
第1章 机器学习与深度学习入门
1.1 为什么这一章出现在这里
1.2 从标记数据中学习
1.3 监督学习
1.4 无监督学习
1.5 生成器
1.6 强化学习
1.7 深度学习
1.8 接下来会讲什么
参考资料
第2章 随机性与基础统计学
2.1 为什么这一章出现在这里
2.2 随机变量
2.3 一些常见的分布
2.4 独立性
2.5 抽样与放回
2.6 Bootstrapping算法
2.7 高维空间
2.8 协方差和相关性
2.9 Anscombe四重奏
参考资料
第3章 概率
3.1 为什么这一章出现在这里
3.2 飞镖游戏
3.3 初级概率学
3.4 条件概率
3.5 联合概率
3.6 边际概率
3.7 测量的正确性
3.8 混淆矩阵的应用
参考资料
第4章 贝叶斯定理
4.1 为什么这一章出现在这里
4.2 频率论者法则以及贝叶斯法则
4.3 抛硬币
4.4 这枚硬币公平吗
4.5 生活中的贝叶斯定理
4.6 重复贝叶斯定理
4.7 多个假设
参考资料
第5章 曲线和曲面
5.1 为什么这一章出现在这里
5.2 引言
5.3 导数
5.4 梯度
参考资料
第6章 信息论
6.1 为什么这一章出现在这里
6.2 意外程度与语境
6.3 用比特作为单位
6.4 衡量信息
6.5 事件的大小
6.6 自适应编码
6.7 熵
6.8 交叉熵
6.9 KL散度
参考资料
第7章 分类
7.1 为什么这一章出现在这里
7.2 二维分类
7.3 二维多分类
7.4 多维二元分类
7.5 聚类
7.6 维度灾难
参考资料
第8章 训练与测试
8.1 为什么这一章出现在这里
8.2 训练
8.3 测试数据
8.4 验证数据
8.5 交叉验证
8.6 对测试结果的利用
参考资料
第9章 过拟合与欠拟合
9.1 为什么这一章出现在这里
9.2 过拟合与欠拟合
9.3 过拟合数据
9.4 及早停止
9.5 正则化
9.6 偏差与方差
9.7 用贝叶斯法则进行线拟合
参考资料
第10章 神经元
10.1 为什么这一章出现在这里
10.2 真实神经元
10.3 人工神经元
10.4 小结
参考资料
第11章 学习与推理
11.1 为什么这一章出现在这里
11.2 学习的步骤
11.3 演绎和归纳
11.4 演绎
11.5 归纳
11.6 组合推理
11.7 操作条件
参考资料
第12章 数据准备
12.1 为什么这一章出现在这里
12.2 数据变换
12.3 数据类型
12.4 数据清理基础
12.5 归一化和标准化
12.6 特征选择
12.7 降维
12.8 转换
12.9 切片处理
12.10 交叉验证转换
参考资料
第13章 分类器
13.1 为什么这一章出现在这里
13.2 分类器的种类
13.3 k近邻法
13.4 支持向量机
13.5 决策树
13.6 朴素贝叶斯
13.7 讨论
参考资料
第14章 集成算法
14.1 为什么这一章出现在这里
14.2 集成方法
14.3 投票
14.4 套袋算法
14.5 随机森林
14.6 极端随机树
14.7 增强算法
参考资料
第15章 scikit-learn
15.1 为什么这一章出现在这里
15.2 介绍
15.3 Python 约定
15.4 估算器
15.5 聚类
15.6 变换
15.7 数据精化
15.8 集成器
15.9 自动化
15.10 数据集
15.11 实用工具
15.12 结束语
参考资料
第16章 前馈网络
16.1 为什么这一章出现在这里
16.2 神经网络图
16.3 同步与异步流
16.4 权重初始化
参考资料
第17章 激活函数
17.1 为什么这一章出现在这里
17.2 激活函数可以做什么
17.3 基本的激活函数
17.4 阶跃函数
17.5 分段线性函数
17.6 光滑函数
17.7 激活函数画廊
17.8 归一化指数函数
参考资料
第18章 反向传播
18.1 为什么这一章出现在这里
18.2 一种非常慢的学习方式
18.3 现在没有激活函数
18.4 神经元输出和网络误差
18.5 微小的神经网络
18.6 第1步:输出神经元的delta
18.7 第2步:使用delta改变权重
18.8 第3步:其他神经元的delta
18.9 实际应用中的反向传播
18.10 使用激活函数
18.11 学习率
18.12 讨论
参考资料
第19章 优化器
19.1 为什么这一章出现在这里
19.2 几何误差
19.3 调整学习率
19.4 更新策略
19.5 梯度下降变体
19.6 优化器选择
参考资料
第20章 深度学习
20.1 为什么这一章出现在这里
20.2 深度学习概述
20.3 输入层和输出层
20.4 深度学习层纵览
20.5 层和图形符号总结
20.6 一些例子
20.7 构建一个深度学习器
20.8 解释结果
参考资料
第21章 卷积神经网络
21.1 为什么这一章出现在这里
21.2 介绍
21.3 卷积
21.4 高维卷积
21.5 一维卷积
21.6 1×1卷积
21.7 卷积层
21.8 转置卷积
21.9 卷积网络样例
21.10 对手
参考资料
第22章 循环神经网络
22.1 为什么这一章出现在这里
22.2 引言
22.3 状态
22.4 RNN单元的结构
22.5 组织输入
22.6 训练RNN
22.7 LSTM和GRU
22.8 RNN的结构
22.9 一个例子
参考资料
第23章 Keras第1部分
23.1 为什么这一章出现在这里
23.2 库和调试
23.3 概述
23.4 准备开始
23.5 准备数据
23.6 制作模型
23.7 训练模型
23.8 训练和使用模型
23.9 保存和加载
23.10 回调函数
参考资料
第24章 Keras第2部分
24.1 为什么这一章出现在这里
24.2 改进模型
24.3 使用scikit-learn
24.4 卷积网络
24.5 RNN
24.6 函数式API
参考资料
第25章 自编码器
25.1 为什么这一章出现在这里
25.2 引言
25.3 最简单的自编码器
25.4 更好的自编码器
25.5 探索自编码器
25.6 讨论
25.7 卷积自编码器
25.8 降噪
25.9 VAE
25.10 探索VAE
参考资料
第26章 强化学习
26.1 为什么这一章出现在这里
26.2 目标
26.3 强化学习的结构
26.4 翻转
26.5 L学习
26.6 Q学习
26.7 SARSA
26.8 强化学习的全貌
26.9 经验回放
26.10 两个应用
参考资料
第27章 生成对抗网络
27.1 为什么这一章出现在这里
27.2 一个比喻:伪造钞票
27.3 为什么要用“对抗”
27.4 GAN的实现
27.5 实际操作中的GAN
27.6 DCGAN
27.7 挑战
参考资料
第28章 创造性应用
28.1 为什么这一章出现在这里
28.2 可视化过滤器
28.3 deep dreaming
28.4 神经风格迁移
28.5 为本书生成更多的内容
参考资料
第29章 数据集
29.1 公共数据集
29.2 MNIST和Fashion-MNIST
29.3 库的内建数据集
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜