万本电子书0元读

万本电子书0元读

顶部广告

Python快乐编程:人工智能深度学习基础电子书

本书是学习Python编程语言的门书籍。Python是一种很流行的源编程语言,可以在各种领域中用于编写独立的程序和脚本。Python免费、可移植、功能强大,而且使用起来相当容易。来自软件产业各个角落的程序员都已经发现,Python对于发者效率和软件质量的关注,这无论在大项目还是小项目中都是一个战略性的优。

售       价:¥

纸质售价:¥38.70购买纸书

38人正在读 | 0人评论 6.2

作       者:千锋教育高教产品研发部

出  版  社:清华大学出版社

出版时间:2020-11-01

字       数:16.6万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书是学习Python编程语言的门书籍。Python是一种很流行的源编程语言,可以在各种领域中用于编写独立的程序和脚本。Python免费、可移植、功能强大,而且使用起来相当容易。来自软件产业各个角落的程序员都已经发现,Python对于发者效率和软件质量的关注,这无论在大项目还是小项目中都是一个战略性的优。<br/>【推荐语】<br/>本书是学习Python编程语言的门书籍。Python是一种很流行的源编程语言,可以在各种领域中用于编写独立的程序和脚本。Python免费、可移植、功能强大,而且使用起来相当容易。来自软件产业各个角落的程序员都已经发现,Python对于发者效率和软件质量的关注,这无论在大项目还是小项目中都是一个战略性的优。<br/>【作者】<br/>胡耀文,清华大学出版社技术编审委员会委员,2009年参与国庆60周年官兵电子纪念册项目,CSDN著名技术专家,博客浏览量超过1460350次,2012年7月 出版Windows CE 7发实战详解,2013年5月出版Windows8发权威指南,2014年--2016年连续三年获得微软全球MVP有价值专家。                                                                尹成,毕业于清华大学,微软全球价值专家,资深软件架构师,CSDN著名技术专家,微软-清华大学联合实验室技术顾问,清华大学移动互联网技术协会顾问,清华大学Oracle-java创始人,清华大学Google技术俱乐部创始人 ,清华大学Linux技术俱乐部创始人。精通java,C/C ,对于移动3G,语音技术,javaEE,信息安全,大数据高并发都有丰富的发经验。2010年著书《Visual C 2010发权威指南》,版权作为大陆的骄傲输出台湾香港新加坡,代表大陆C 超越并引领台湾[4-5]<br/>
目录展开

封面页

书名页

版权页

内容简介

本书编委会

前言

目录

第1章 深度学习简介

1.1 什么是机器学习

1.2 什么是深度学习

1.2.1 深度学习的发展

1.2.2 深度学习的3个层次

1.2.3 深度学习的3种结构类型

1.3 深度学习的研究现状

1.4 本章小结

1.5 习题

第2章 Theano基础

2.1 初识Theano

2.2 安装Theano

2.3 配置环境变量

2.4 Theano中的符号变量

2.5 Theano编程风格

2.6 Theano中的函数

2.6.1 函数的定义

2.6.2 函数的复制

2.6.3 Theano中重要的函数

2.7 Theano中的符号计算图模型

2.7.1 variable节点

2.7.2 type节点

2.7.3 apply节点

2.7.4 op节点

2.7.5 符号计算图模型

2.8 Theano中的条件表达式

2.9 Theano中的循环

2.9.1 scan循环的参数

2.9.2 scan循环演示

2.10 Theano中的常用Debug技巧

2.11 本章小结

2.12 习题

第3章 线性代数基础

3.1 标量、向量、矩阵和张量

3.2 线性相关与生成子空间

3.2.1 线性组合

3.2.2 线性相关

3.2.3 向量组的秩

3.2.4 实例:求解方程组

3.2.5 实例:线性回归

3.3 范数

3.3.1 向量范数

3.3.2 矩阵范数

3.4 特殊的矩阵与向量

3.5 特征值分解

3.6 奇异值分解

3.7 迹运算

3.8 本章小结

3.9 习题

第4章 概率与信息论

4.1 概率的用途

4.2 样本空间与随机变量

4.3 随机变量的分布函数

4.4 一维随机变量

4.4.1 离散型随机变量和分布律

4.4.2 连续型随机变量和概率密度函数

4.4.3 分辨离散型随机变量和连续型随机变量

4.5 多维随机变量

4.5.1 二维随机变量及其分布函数

4.5.2 边缘分布函数

4.6 数学期望、方差、协方差

4.6.1 数学期望

4.6.2 方差

4.6.3 协方差

4.7 贝叶斯规则

4.7.1 条件概率

4.7.2 贝叶斯公式

4.7.3 朴素贝叶斯

4.8 正态分布与最大似然估计

4.8.1 正态分布

4.8.2 最大似然估计

4.9 信息论

4.9.1 信息熵

4.9.2 条件熵

4.9.3 互信息

4.9.4 相对熵与交叉熵

4.10 本章小结

4.11 习题

第5章 深度学习基础知识

5.1 学习算法

5.1.1 任务T

5.1.2 性能度量P

5.1.3 经验E

5.1.4 人工神经网络

5.1.5 反向传播算法

5.1.6 M-P神经元模型

5.1.7 激活函数

5.2 容量与拟合

5.2.1 机器学习中的泛化

5.2.2 过拟合

5.2.3 欠拟合

5.2.4 没有免费的午餐定理

5.3 评估方法

5.4 偏差与方差

5.5 监督学习算法

5.5.1 线性回归

5.5.2 Logistic回归

5.5.3 支持向量机

5.6 无监督学习算法

5.6.1 K-均值聚类

5.6.2 主成分分析

5.7 本章小结

5.8 习题

第6章 数值计算与最优化

6.1 计算的稳定性

6.1.1 上溢和下溢

6.1.2 平滑与0

6.1.3 算法稳定性与扰动

6.2 数据的稳定性

6.2.1 独立同分布与泛化能力

6.2.2 类别不平衡

6.3 性能的稳定性

6.4 病态条件数

6.5 梯度下降算法

6.6 优化算法的选择

6.7 本章小结

6.8 习题

第7章 概率图模型

7.1 概率图模型

7.2 生成模型与判别模型

7.2.1 生成模型

7.2.2 判别模型

7.3 表示理论与推理理论

7.4 链式法则和因子分解

7.5 独立性和条件独立性

7.6 贝叶斯网络

7.7 马尔可夫网络

7.7.1 条件独立性

7.7.2 分解性质

7.7.3 图像降噪

7.8 图模型中的推断

7.8.1 链推断

7.8.2 树

7.8.3 因子图

7.8.4 置信传播算法

7.8.5 一般图的精确推断

7.8.6 学习图结构

7.9 本章小结

7.10 习题

第8章 前馈神经网络

8.1 神经元

8.2 人工神经网络

8.3 感知机

8.3.1 线性单元

8.3.2 感知机的训练

8.4 激活函数

8.4.1 Sigmoid函数

8.4.2 Tanh函数

8.4.3 ReLU函数

8.4.4 Softmax函数

8.5 基于梯度的学习

8.5.1 前馈神经网络的基本概念

8.5.2 随机梯度下降算法

8.6 本章小结

8.7 习题

第9章 反向传播与梯度计算

9.1 风险最小化

9.1.1 经验风险最小化

9.1.2 结构风险最小化

9.2 梯度计算

9.2.1 输出层梯度

9.2.2 隐藏层梯度

9.2.3 参数梯度

9.2.4 梯度消失和梯度爆炸

9.3 反向传播

9.4 本章小结

9.5 习题

第10章 自编码器

10.1 自编码器概述

10.2 欠完备自编码器

10.3 常见的几种自编码器

10.3.1 降噪自编码器

10.3.2 稀疏自编码器

10.3.3 栈式自编码器

10.4 本章小结

10.5 习题

第11章 玻尔兹曼机及其相关模型

11.1 玻尔兹曼机

11.1.1 玻尔兹曼机概述

11.1.2 受限玻尔兹曼机

11.2 能量模型

11.2.1 能量函数

11.2.2 能量函数与势函数

11.2.3 势函数与概率分布

11.3 近似推断

11.3.1 边缘分布

11.3.2 条件分布

11.4 对比散度

11.5 本章小结

11.6 习题

第12章 循环神经网络

12.1 循环神经网络概述

12.2 语言模型

12.3 双向循环神经网络

12.4 深度循环神经网络

12.5 循环神经网络的训练

12.5.1 前向计算

12.5.2 误差项的计算

12.5.3 权重梯度的计算

12.6 循环神经网络中的梯度爆炸和梯度消失

12.7 RNN的应用举例——基于RNN的语言模型

12.7.1 向量化

12.7.2 Softmax层

12.7.3 语言模型的训练

12.8 本章小结

12.9 习题

第13章 递归神经网络

13.1 递归神经网络概述

13.2 递归神经网络的前向计算

13.3 递归神经网络的训练

13.3.1 误差项的传递

13.3.2 权重梯度的计算

13.3.3 权重更新

13.4 长短期记忆网络

13.4.1 遗忘门

13.4.2 输入门与输出门

13.4.3 候选门

13.5 本章小结

13.6 习题

第14章 卷积神经网络

14.1 卷积运算

14.2 网络结构

14.3 卷积层

14.4 池化层

14.5 输出值的计算

14.6 池化层输出值的计算

14.7 本章小结

14.8 习题

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部