万本电子书0元读

万本电子书0元读

顶部广告

机器学习观止――核心原理与实践电子书

一个处于工程应用前沿的首席技术专家带你系统学习AI技术: 学术 应用,综合学习,融会贯通; 软件 硬件,系统学习,整体思考; 算法 平台,密切结合,释疑解惑。

售       价:¥

纸质售价:¥80.60购买纸书

127人正在读 | 0人评论 6.2

作       者:林学森

出  版  社:清华大学出版社

出版时间:2021-03-01

字       数:52.4万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
 《机器学习观止——核心原理与实践》在写作伊始,就把读者设想为一位虽然没有任何AI基础,但对技术本身抱有浓厚兴趣、喜欢“抽丝剥茧”、探究真相的“有识之士”。有别于市面上部分AI技术书籍从一始就直讲解各种“高深莫测”算法的叙 述手法,《机器学习观止——核心原理与实践》尝试先从零始构建基础技术,而后“循序渐”地引领读者前,*终“直捣黄龙”,赢取*后的胜利。 全书据此分为5篇,共31章,内容基本覆盖了由AI发展历史、数学基础知识、机器学习算法等经典知识以及深度学习、深度强化学习等较新理论知识所组成的AI核心技术。同时注重“理论联系实践”,通过多个章节重 介绍了如何在工程项目中运用AI来解决问题的诸多经验以及相应的模型算法,以期让读者既能享受到“知其所以 然”的乐趣,还能体会到“知其然”的轻松和愉悦。      《机器学习观止——核心原理与实践》适合对AI感兴趣的读者阅读,从事AI领域工作的研究人员、工程发人员、高校本科生和研究生都可以从 《机器学习观止——核心原理与实践》中学到机器学习的相关知识。<br/>【推荐语】<br/>一个处于工程应用前沿的首席技术专家带你系统学习AI技术: 学术 应用,综合学习,融会贯通; 软件 硬件,系统学习,整体思考; 算法 平台,密切结合,释疑解惑。<br/>【作者】<br/>林学森,香港中文大学研究生学历,现为某世界100强科技公司首席技术专家、资深架构师。在系统软件、人工智能、软件工具、分布式系统等领域具备多年的技术研发与项目管理经验。另著有《深理解Android内核设计思想》《Android应用程序发权威指南》等书籍。<br/>
目录展开

封面页

书名页

版权页

内容简介

作者简介

前言

目录

机器学习基础知识篇

第1章 人工智能概述

1.1 人工智能的定义

1.2 人工智能发展简史

1.2.1 史前文明,曙光初现(1956年前)

1.2.2 初出茅庐,一战成名(1956—1974年)

1.2.3 寒风凛冽,首次入冬(1974—1980年)

1.2.4 卷土重来,威震八方(1980—1987年)

1.2.5 失望弥漫,再度入冬(1987—1993年)

1.2.6 重出江湖,渐入佳境(1993年至今)

1.3 人工智能经典流派

1.3.1 符号主义

1.3.2 连接主义

1.3.3 行为主义

1.3.4 贝叶斯派

1.4 人工智能与机器学习

1.5 如何选择机器学习算法

1.5.1 没有免费的午餐理论

1.5.2 Scikit Learn小抄

1.5.3 Microsoft Azure小抄

1.6 机器学习的典型应用场景

1.6.1 计算机图像领域

1.6.2 自然语言处理简述及其应用

1.6.3 制造业中的预测性维护

1.6.4 软件自动化开发和测试

1.7 本书的组织结构

第2章 机器学习中的数学基础

2.1 微分学

2.1.1 链式求导法则

2.1.2 对数函数求导

2.1.3 梯度和梯度下降算法

2.2 线性代数

2.2.1 向量

2.2.2 矩阵拼接

2.2.3 特征值和特征向量

2.2.4 仿射变换

2.3 概率论

2.3.1 概率分布

2.3.2 先验/后验概率

2.3.3 最大似然估计

2.3.4 贝叶斯法则

2.4 统计学

2.4.1 数据的标准化和归一化

2.4.2 标准差

2.4.3 方差和偏差

2.4.4 协方差和协方差矩阵

2.5 最优化理论

2.5.1 概述

2.5.2 函数等高线

2.5.3 拉格朗日乘子法

2.5.4 拉格朗日对偶性

2.5.5 KKT

2.6 其他

2.6.1 训练、验证和测试数据集

2.6.2 过拟合和欠拟合

2.6.3 奥卡姆的剃刀

2.6.4 信息熵

2.6.5 IOU

2.6.6 NMS

2.6.7 Huffman树

第3章 机器学习模型的度量指标

3.1 Precision、Recall和mAP

3.2 F_1 Score

3.3 混淆矩阵

3.4 ROC

3.5 AUC

3.6 PRC

3.7 工业界使用的典型AI指标

经典机器学习篇

第4章 回归算法

4.1 回归分析

4.2 线性回归

4.2.1 线性回归的定义

4.2.2 线性回归的损失函数

4.2.3 线性回归范例

4.3 逻辑回归

4.3.1 逻辑回归——二分类

4.3.2 逻辑回归——多分类及Softmax

第5章 K-NN算法

5.1 K-NN概述

5.2 K-NN分类算法

5.3 K-NN回归算法

5.4 K-NN的优缺点

5.4.1 K-NN的优点

5.4.2 K-NN的缺点

5.5 K-NN工程范例

第6章 k-means

6.1 k-means概述

6.2 k-means核心算法

6.3 k-means算法的优缺点

6.3.1 k-means算法的优点

6.3.2 k-means算法的缺点

6.4 k-means工程范例

第7章 朴素贝叶斯

7.1 朴素贝叶斯分类算法

7.2 朴素贝叶斯的实际应用

第8章 决策树和随机森林

8.1 决策树

8.1.1 决策树的主要组成元素

8.1.2 决策树的经典算法

8.1.3 决策树的优缺点

8.1.4 决策树的过拟合和剪枝

8.2 随机森林

第9章 支持向量机

9.1 SVM可以做什么

9.2 SVM的数学表述

9.2.1 决策面的数学表述

9.2.2 分类间隔的数学表述

9.2.3 比较超平面的数学公式

9.2.4 最优决策面的数学表述

9.3 SVM相关的最优化理论

9.3.1 感知机学习算法

9.3.2 SVM最优化问题

9.4 硬间隔SVM

9.5 软间隔SVM

9.6 核函数技巧

9.7 多分类SVM

9.8 SVM实践

第10章 PCA降维

10.1 降维概述

10.2 PCA降维实现原理

10.2.1 PCA的直观理解

10.2.2 PCA的理论基础——最大方差理论

10.2.3 PCA的核心处理过程

10.3 PCA实例

第11章 集成学习

11.1 集成学习概述

11.2 集成学习架构

11.2.1 聚合法

11.2.2 提升法

11.2.3 堆叠法

11.3 典型的集成方法

11.3.1 平均法

11.3.2 投票法

11.3.3 学习法

深度学习进阶篇

第12章 深度神经网络

12.1 神经元

12.2 激活函数

12.2.1 Sigmoid

12.2.2 tanh

12.2.3 ReLU

12.2.4 Leaky ReLU

12.2.5 ReLU的其他变种

12.2.6 激活函数的选择

12.3 前向传播和后向传播算法

12.4 损失函数

12.4.1 分类场景

12.4.2 回归场景

12.4.3 其他任务类型的损失函数

第13章 卷积神经网络

13.1 CNN发展历史简述

13.2 CNN的核心组成元素

13.2.1 卷积层

13.2.2 池化层

13.2.3 全连接层

13.2.4 Softmax层

13.3 CNN经典框架

13.3.1 LeNet

13.3.2 AlexNet

13.3.3 VGG

13.3.4 GoogLeNet

13.3.5 ResNet

13.4 CNN的典型特性

13.4.1 CNN位移不变性

13.4.2 CNN尺度不变性

13.4.3 CNN旋转不变性

13.4.4 CNN视角不变性

第14章 RNN与LSTM

14.1 RNN

14.2 RNN的多种形态

14.3 RNN存在的不足

14.4 LSTM

14.5 LSTM核心框架

14.5.1 遗忘门

14.5.2 输入门

14.5.3 输出门

14.6 GRU

第15章 深度强化学习

15.1 强化学习和MDP

15.1.1 强化学习的基础概念

15.1.2 MDP

15.1.3 强化学习的核心三要素

15.2 MDP问题的解决方案分类

15.3 基于模型的动态规划算法

15.4 基于无模型的强化学习算法

15.4.1 蒙特·卡罗强化学习算法

15.4.2 时间差分算法

15.5 DQN

15.6 基于策略的强化学习算法

15.6.1 有限差分策略梯度

15.6.2 蒙特·卡罗策略梯度

第16章 MCTS

16.1 MCTS概述

16.2 MCTS算法核心处理过程

16.3 UCB和UCT

16.4 MCTS实例解析

机器学习应用实践及相关原理

第17章 数据集的建设

17.1 数据集建设的核心目标

17.2 数据采集和标注

17.2.1 数据从哪来

17.2.2 数据分布和多样性

17.2.3 如何扩大数据量

17.3 数据分析和处理

17.3.1 数据集分析的典型方法

17.3.2 标签类别合理性

17.3.3 数据清洗

第18章 CNN训练技巧

18.1 数据预处理

18.1.1 数据零中心化

18.1.2 数据标准化

18.1.3 尺寸调整

18.1.4 其他

18.2 数据增强

18.3 CNN核心组件择优

18.3.1 激活函数

18.3.2 超参数设定

18.4 参数初始化策略

18.4.1 全零初始化策略

18.4.2 随机初始化策略

18.4.3 采用预训练模型

18.5 模型过拟合解决方法

18.5.1 正则化

18.5.2 批标准化

18.6 模型的可解释性

18.6.1 反卷积网络

18.6.2 类别激活映射

18.6.3 LIME

18.6.4 可视化集成工具Darkon

18.7 Auto ML

第19章 CV和视觉识别经典模型

19.1 CV发展简史

19.2 视觉识别概述

19.3 R-CNN

19.3.1 R-CNN简述

19.3.2 R-CNN中的候选区域

19.3.3 R-CNN算法处理流程

19.4 Fast R-CNN

19.5 SPP-Net

19.5.1 空间金字塔池化

19.5.2 特征图和原图的映射关系

19.5.3 基于SPP-Net的目标识别

19.6 Faster R-CNN

19.6.1 Faster R-CNN简述

19.6.2 候选区域网络

19.6.3 分类器和边框回归

19.7 YOLO

19.8 SSD

19.8.1 SSD的网络框架

19.8.2 SSD的应用推理过程

19.8.3 SSD的性能评估和缺点

19.9 不基于CNN来实现目标识别

19.9.1 相关的OpenCV函数

19.9.2 利用OpenCV识别形状物体范例

第20章 自然语言处理和CNN

20.1 NLP简述

20.2 NLP发展历史

20.3 自然语言基础

20.4 词的表达方式

20.5 自然语言模型

20.5.1 基于N-Gram的语言模型

20.5.2 基于神经网络的语言模型——经典NNLM

20.5.3 基于神经网络的语言模型——NNLM的改进者CBOW模型

20.5.4 基于神经网络的语言模型——NNLM的改进者Skip-gram模型

20.6 word2vec

20.6.1 word2vec简介

20.6.2 word2vec源码与编译

20.6.3 word2vec使用范例

20.7 常用语料库

20.8 NLP应用:文本分类

20.8.1 传统的文本分类方法

20.8.2 基于深度学习的文本分类方法

第21章 自然语言处理和CNN

21.1 应用程序场景识别背景

21.2 特征向量

21.3 数据采集

21.4 算法模型

21.5 落地应用

第22章 软件自动修复

22.1 什么是软件自动修复

22.1.1 软件自动修复的定义

22.1.2 软件自动修复的价值

22.2 软件自动修复基础知识

22.2.1 软件自动修复技术分类

22.2.2 软件自动修复基础概念

22.3 阶段1:缺陷定位

22.3.1 基于程序频谱的缺陷定位

22.3.2 SFL中测试套件的构造

22.3.3 SFL中程序频谱的构造

22.4 阶段2:补丁生成

22.4.1 基于搜索的补丁生成和自动修复

22.4.2 基于模板的补丁生成和自动修复

22.5 APR领域经典框架

22.5.1 Facebook SapFix

22.5.2 Microsoft DeepCoder

22.5.3 GenProg

第23章 基于强化学习的经典应用——AlphaGO

23.1 AlphaGO简述

23.2 AlphaGO核心原理

23.3 策略网络

23.4 估值网络

23.5 MCTS

机器学习平台篇

第24章 分布式机器学习框架基础知识

24.1 分布式机器学习核心理念

24.2 GPU硬件设备

24.2.1 GPU架构

24.2.2 GPU的共享访问

24.3 网络标准

24.3.1 Ethernet

24.3.2 InfiniBand

24.4 分布式通信框架

24.4.1 MPI

24.4.2 P2P和聚合通信

24.4.3 NCCL

24.4.4 NV-Link

24.4.5 RDMA

24.5 经典分布式ML框架Caffe-MPI

第25章 Tensorflow

25.1 Tensorflow安装过程

25.2 Tensorflow基础知识

25.2.1 Tensorflow核心概念

25.2.2 Tensorflow模型/数据的保存和恢复

25.2.3 Tensorflow模型fine-tuning

25.2.4 Tensorflow模型调试

25.2.5 Tensorflow的多语言支持

25.2.6 可视化利器TensorBoard

25.3 Tensorflow分布式训练

25.3.1 Tensorflow的分布式原理

25.3.2 单机多GPU下的并行计算

25.3.3 多机多GPU下的分布式计算

25.4 Tensorflow分布式部署

25.4.1 Tensorflow Serving概述

25.4.2 基于GPU的Tensorflow Serving

25.4.3 Tensorflow Serving的核心概念

25.4.4 Tensorflow模型分布式部署实例

25.5 Tensorflow范例解析

25.6 Tensorflow的“变种”

25.6.1 Tensorflow Lite

25.6.2 Tensorflow RS

第26章 Caffe

26.1 Caffe的安装

26.1.1 Ubuntu下安装Caffe

26.1.2 Windows下安装Caffe

26.2 Caffe支持的数据集格式

26.2.1 LevelDB

26.2.2 LMDB

26.2.3 数据库的生成

26.3 Caffe中的网络模型构建

26.4 Google Protocol Buffer

26.5 Caffe2源码结构

26.6 Caffe工程范例

26.7 Caffe中的Model Zoo

第27章 scikit-learn

27.1 scikit-learn的安装

27.2 scikit-learn中的机器学习算法

27.2.1 分类

27.2.2 回归

27.2.3 聚类

27.2.4 降维

27.3 scikit-learn中的Model selection

27.3.1 网络搜索

27.3.2 交叉验证

27.3.3 度量标准

27.4 scikit-learn中的预处理

27.4.1 数据标准化等预处理

27.4.2 数据特征提取预处理

第28章 主流AI云平台

28.1 Microsoft OpenPAI

28.2 Google Cloud

28.3 Baidu

28.3.1 百度AI云服务

28.3.2 PaddlePaddle

28.4 Alibaba

28.4.1 阿里飞天平台

28.4.2 MaxCompute平台

28.4.3 PAI

第29章 图像处理基础

29.1 光、色彩和人类视觉系统

29.2 图像的颜色模型

29.3 图像的基本属性

29.3.1 灰度值

29.3.2 亮度

29.3.3 对比度

29.3.4 色相

29.3.5 饱和度

29.4 图像特征

29.4.1 颜色特征

29.4.2 纹理特征

29.4.3 形状特征

29.5 图像的典型特征描述子

29.5.1 LBP

29.5.2 HOG

29.5.3 Haar-like特征

29.5.4 图像的傅里叶变换

29.6 图像处理实例(图像质量检测)

第30章 程序切片技术

30.1 程序切片综述

30.2 程序切片基础知识

30.2.1 控制流图

30.2.2 控制流分析

30.2.3 数据流

30.3 静态切片技术

30.3.1 基本定义

30.3.2 静态切片算法

30.4 动态切片技术

30.4.1 动态切片基本概念

30.4.2 动态切片算法概述

30.4.3 基于PDG的动态切片算法

第31章 人工智能概述

31.1 ImageNet简述

31.2 ImageNet的构建逻辑

31.3 ImageNet数据源的选择与处理

31.4 ImageNet的下载

参考文献

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部