万本电子书0元读

万本电子书0元读

顶部广告

深度学习500问——AI工程师面试宝典电子书

售       价:¥

纸质售价:¥81.10购买纸书

273人正在读 | 0人评论 6.2

作       者:谈继勇

出  版  社:电子工业出版社

出版时间:2020-12-01

字       数:28.5万

所属分类: 科技 > 工业技术 > 一般工业技术

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书系统地描述了深度学习的基本理论算法及应用。全书共14章,第1~3章论述了数学基础、机器学习基础和深度学习基础;第4~7章介绍了一些经典网络及计算机视觉领域中常用的CNN、RNN、GAN等网络结构技术;第8~9章介绍了深度学习在计算机视觉领域的目标检测及图像分割两大应用;第10~14章介绍了计算机视觉领域主要的优化方法及思路等,包括迁移学习、网络架构及训练、网络优化技巧、超参数调整及模型的压缩和加速等。本书凝聚了众多一线科研人员及工程师的经验,旨在培养读者发现问题、解决问题、扩展问题的能力。本书内容取材于编者在日常学习过程中总结的知识及各大公司常见的笔试、面试题。本书可为高等院校计算机科学、信息科学、人工智能、控制科学与工程、电子科学与技术等领域的研究及教学人员提供参考,也可为相关专业本科生及研究生提供思考方向,还可为深度学习及计算机视觉领域的初、中级研究人员和工程技术人员提供参考,尤其适合需要查漏补缺的应聘者及提供相关岗位的面试官阅读。<br/>【作者】<br/>谈继勇 主编南方科技大学和哈尔滨工业大学联合培养博士(在读),现任瀚维智能医疗技术总监,深圳工信局专家库专家,兼任南方科技大学、四川大学研究生企业导师,南方科技大学和瀚维智能医疗联合实验室副主任,北京探工所特聘技术专家,曾先后在中科院信工所、香港中文大学(深圳)、FOXCONN机器人与人工智能实验室、顺丰科技等单位任职。主要专注于智能感知与控制、实时智能与计算机视觉方向的研究,主持/主研国家自然科学基金、省重研发计划、深圳战略性新兴产业计划等项目20余项,发表SCI/EI论文20余篇,申请发明专利40余项,获全国发明金奖。郭子钊 副主编四川大学计算机科学专业博士,硕士毕业于四川大学自动化系,主要从事AI芯片、深度学习、行为检测识别、人脸检测识别等相关研究工作。李剑 副主编同济大学计算机科学专业博士,浙江农林大学副教授、硕士生导师,主要从事推荐系统、排序学习、凸优化等机器学习领域的科研和教学工作,发表SCI论文10余篇,曾获浙江省科技步二等奖等多项省部级奖项。佃松宜 副主编日本东北大学博士,四川大学电气工程学院教授、自动化系系主任,四川省信息与自动化技术重实验室主任。主要专注于先控制理论与人工智能算法研究、嵌式计算与实时智能系统的研究与发、机器人与智能装备的智能感知与控制技术的研究、工业测控与智能物联的研究。近5年来主持包括国家重研发计划、基金、国网总部项目等各类科研项目近30项,累计总经费近2200万元;发表论文100多篇,其中SCI/EI检索近40篇,ESI高引论文1篇。参与编撰专著3部(其中英文专著1部),参编国家九五规划教材1部。王晋东 特邀编委中科院计算所博士,微软亚洲研究院机器学习研究员,主要从事迁移学习和机器学习方向的研究工作,在IJCAI、CVPR、ICDM、UbiComp、ACMMM、PERCOM、IJCNN、PRICAI、IEEE TNNLS、NEUNET、PRL、PMCJ、IMWUT、IJMLC、ICME、ACM TIST等国际权威期刊和会议上发表论文20余篇,多次获得“论文”奖。作品有《迁移学习简明手册》等。王超锋上海大学硕士,百度计算机视觉算法工程师,主研图像处理,深度学习等方向。曾多次在国内外各类知名计算机视觉挑战赛中获得优异成绩。郭晓锋中国科学院硕士,爱奇艺算法工程师,主要从事图像处理、深度学习等方向的研究,曾获“2017华为软件精英挑战赛”复赛第6名。黄伟华南理工大学硕士,顺丰科技机器人算法工程师,主要从事计算机视觉和自然语言处理方向的研究。曾在相关领域国际期刊、会议上发表论文,并在相关竞赛中获得优异成绩。陈方杰(Amusi)上海大学硕士,CVer(计算机视觉知识分享和学习交流平台)创始人。李元伟国防科技大学硕士,深圳瀚维智能医疗科技公司高级算法工程师,南方科技大学和瀚维智能医疗联合实验室委员,主要从事机器视觉、图像处理及深度学习方向的研究工作,参编普通高等教育十三五规划教材《图像通信基础》,在IEEE TCSVT、COGN COMPUT等发表学术论文多篇,曾获湖南省/全军优秀硕士论文。陈琳北京航空航天大学博士(在读),研究方向为无人机智能控制与决策、仿生智能计算。<br/>
目录展开

前折页

内容简介

推荐序1

推荐序2

前言

第1章 数学基础

1.1 向量和矩阵

1.1.1 标量、向量、矩阵和张量

1.1.2 张量与矩阵的区别

1.1.3 矩阵和向量相乘的结果

1.1.4 向量和矩阵的范数归纳

1.1.5 判断一个矩阵是否为正定矩阵

1.2 导数和偏导数

1.2.1 导数偏导计算

1.2.2 导数和偏导数的区别

1.3 特征值和特征向量

1.3.1 特征值分解

1.3.2 奇异值和特征值的关系

1.4 概率分布与随机变量

1.4.1 机器学习为什么要使用概率

1.4.2 变量与随机变量的区别

1.4.3 随机变量与概率分布的联系

1.4.4 离散型随机变量和概率质量函数

1.4.5 连续型随机变量和概率密度函数

1.4.6 举例理解条件概率

1.4.7 联合概率与边缘概率的区别和联系

1.4.8 条件概率的链式法则

1.4.9 独立性和条件独立性

1.5 常见概率分布

1.5.1 伯努利分布

1.5.2 高斯分布

1.5.3 何时采用正态分布

1.5.4 指数分布

1.5.5 Laplace分布

1.5.6 Dirac分布和经验分布

1.6 期望、方差、协方差、相关系数

1.6.1 期望

1.6.2 方差

1.6.3 协方差

1.6.4 相关系数

第2章 机器学习基础

2.1 基本概念

2.1.1 大话机器学习本质

2.1.2 什么是神经网络

2.1.3 各种常见算法图示

2.1.4 计算图的导数计算

2.1.5 理解局部最优与全局最优

2.1.6 大数据与深度学习之间的关系

2.2 机器学习的学习方式

2.2.1 监督学习

2.2.2 非监督学习

2.2.3 半监督学习

2.2.4 弱监督学习

2.2.5 监督学习模型的搭建步骤

2.3 分类算法

2.3.1 常用分类算法的优缺点

2.3.2 分类算法的评估方法

2.3.3 正确率能否很好地评估分类算法

2.3.4 什么样的分类器是最好的

2.4 逻辑回归

2.4.1 回归的种类

2.4.2 逻辑回归适用性

2.4.3 逻辑回归与朴素贝叶斯的区别

2.4.4 线性回归与逻辑回归的区别

2.5 代价函数

2.5.1 为什么需要代价函数

2.5.2 代价函数作用原理

2.5.3 常见代价函数

2.5.4 为什么代价函数要非负

2.5.5 为什么用交叉熵代替二次代价函数

2.6 损失函数

2.6.1 什么是损失函数

2.6.2 常见的损失函数

2.6.3 逻辑回归为什么使用对数损失函数

2.6.4 对数损失函数如何度量损失

2.7 梯度下降法

2.7.1 梯度下降法的作用

2.7.2 梯度下降法的直观理解

2.7.3 梯度下降法算法描述

2.7.4 梯度下降法的缺点

2.7.5 如何对梯度下降法进行调优

2.7.6 随机梯度下降和批量梯度下降的区别

2.7.7 各种梯度下降法性能比较

2.8 线性判别分析

2.8.1 LDA思想总结

2.8.2 图解LDA核心思想

2.8.3 二类LDA算法原理

2.8.4 LDA算法流程总结

2.8.5 LDA和PCA的异同

2.8.6 LDA的优缺点

2.9 主成分分析

2.9.1 图解PCA核心思想

2.9.2 PCA算法推理

2.9.3 PCA算法流程总结

2.9.4 PCA思想总结

2.9.5 PCA算法的优缺点

2.9.6 降维的必要性及目的

2.9.7 KPCA与PCA的区别

2.10 模型评估

2.10.1 模型评估常用方法

2.10.2 误差、偏差和方差的区别和联系

2.10.3 为什么使用标准差

2.10.4 经验误差与泛化误差

2.10.5 图解欠拟合与过拟合

2.10.6 如何解决欠拟合与过拟合

2.10.7 交叉验证的主要作用

2.10.8 理解K折交叉验证

2.10.9 理解混淆矩阵

2.10.10 理解查准率与查全率

2.10.11 理解ROC与AUC

2.10.12 如何绘制ROC曲线

2.10.13 如何计算TPR和FPR

2.10.14 如何计算AUC

2.10.15 直观理解AUC

2.10.16 ROC评估分类器

2.10.17 代价敏感错误率与代价曲线

2.10.18 比较检验方法

2.11 决策树

2.11.1 决策树的基本原理

2.11.2 决策树的生成过程

2.11.3 决策树学习基本算法步骤

2.11.4 决策树算法的优缺点

2.11.5 决策树和熵的联系

2.11.6 熵的概念及定义

2.11.7 理解信息增益

2.11.8 决策树中熵、条件熵和信息增益的联系

2.11.9 决策树算法中剪枝的作用及策略

2.12 支持向量机(SVM)

2.12.1 什么是SVM

2.12.2 SVM能解决的问题

2.12.3 核函数特点及其作用

2.12.4 SVM为什么引入对偶问题

2.12.5 如何理解SVM中的对偶问题

2.12.6 常见的核函数

2.12.7 SVM的主要特点

2.12.8 SVM的主要缺点

2.12.9 逻辑回归与SVM的异同

2.13 贝叶斯分类器

2.13.1 贝叶斯分类器的基本原理

2.13.2 朴素贝叶斯分类器

2.13.3 举例理解朴素贝叶斯分类器

2.13.4 半朴素贝叶斯分类器

2.13.5 极大似然估计和贝叶斯估计的联系与区别

2.13.6 极大似然估计原理

2.13.7 图解极大似然估计

2.14 EM算法

2.14.1 EM算法的基本思想

2.14.2 EM算法推导

2.14.3 图解EM算法

2.14.4 EM算法流程

2.15 降维和聚类

2.15.1 图解为什么会产生维数灾难

2.15.2 怎样避免维数灾难

2.15.3 聚类和降维

2.15.4 聚类算法优劣的衡量标准

2.15.5 聚类和分类

2.15.6 聚类算法的性能比较

2.15.7 4种常用聚类方法比较

第3章 深度学习基础

3.1 基本概念

3.1.1 神经网络的类型

3.1.2 神经网络的常用模型结构

3.1.3 深度学习和机器学习的区别与联系

3.1.4 为什么使用深层表示

3.1.5 深度学习架构分类

3.1.6 如何选择深度学习开发平台

3.2 神经网络计算

3.2.1 前向传播和反向传播

3.2.2 如何计算神经网络的输出

3.2.3 如何计算卷积神经网络输出值

3.2.4 如何计算池化层输出值

3.2.5 反向传播实例

3.2.6 神经网络更“深”的意义

3.3 激活函数

3.3.1 为什么需要激活函数

3.3.2 为什么激活函数需要非线性函数

3.3.3 常见的激活函数及其图像

3.3.4 常见激活函数的导数计算

3.3.5 激活函数有哪些性质

3.3.6 如何选择激活函数

3.3.7 为什么tanh收敛速度比sigmoid快

3.3.8 Relu激活函数的优点

3.3.9 理解Relu激活函数的稀疏激活性

3.3.10 什么时候可以用线性激活函数

3.3.11 softmax函数的定义及作用

3.3.12 softmax函数如何应用于多分类

3.4 Batch Size

3.4.1 为什么需要Batch Size

3.4.2 如何选择Batch Size值

3.4.3 调节Batch Size对训练效果的影响

3.4.4 在合理范围内增大Batch Size的好处

3.4.5 盲目增大Batch Size的坏处

3.5 归一化

3.5.1 理解归一化含义

3.5.2 归一化和标准化的联系与区别

3.5.3 为什么要归一化或标准化

3.5.4 图解为什么要归一化

3.5.5 为什么归一化能提高求最优解速度

3.5.6 归一化有哪些类型

3.5.7 局部响应归一化作用

3.5.8 局部响应归一化原理

3.5.9 什么是批归一化

3.5.10 批归一化的优点

3.5.11 批归一化算法流程

3.5.12 批归一化和组归一化比较

3.5.13 权重归一化和批归一化比较

3.5.14 批归一化适用范围

3.5.15 BN、LN、IN和GN的对比

3.6 参数初始化

3.6.1 参数初始化应满足的条件

3.6.2 常用的几种初始化方式

3.6.3 全0初始化带来的问题

3.6.4 全都初始化为同样的值

3.6.5 初始化为小的随机数

3.6.6 用1/√n校准方差

3.7 预训练与微调

3.7.1 什么是预训练和微调

3.7.2 预训练和微调的作用

3.7.3 预训练模型的复用

3.7.4 预训练和迁移学习

3.7.5 微调时网络参数是否更新

3.7.6 微调模型的三种状态

3.7.7 为什么深层神经网络难以训练

3.8 超参数

3.8.1 超参数有哪些

3.8.2 参数和模型的关系

3.8.3 参数和超参数的区别

3.8.4 如何寻找超参数的最优值

3.8.5 超参数搜索的一般过程

3.9 学习率

3.9.1 学习率的作用

3.9.2 学习率衰减的常用参数

3.9.3 常用的学习率衰减方法

3.10 正则化

3.10.1 为什么要正则化

3.10.2 常见正则化方法

3.10.3 图解L1和L2正则化

3.10.4 Dropout具体工作流程

3.10.5 为什么Dropout可以解决过拟合问题

3.10.6 Dropout的缺点

第4章 卷积神经网络的经典网络

4.1 LeNet-5

4.1.1 模型介绍

4.1.2 模型结构

4.1.3 模型特性

4.2 AlexNet

4.2.1 模型介绍

4.2.2 模型结构

4.2.3 模型特性

4.3 ZFNet

4.3.1 模型介绍

4.3.2 模型结构

4.3.3 模型特性

4.4 NIN

4.4.1 模型介绍

4.4.2 模型结构

4.4.3 模型特点

4.5 VGGNet

4.5.1 模型介绍

4.5.2 模型结构

4.5.3 模型特性

4.6 GoogLeNet

4.6.1 模型介绍

4.6.2 模型结构

4.6.3 模型特性

4.7 ResNet

4.7.1 模型介绍

4.7.2 模型结构

4.7.3 模型特性

4.8 DenseNet

4.8.1 模型介绍

4.8.2 模型结构

4.8.3 模型特性

4.9 CNN模型在GoogLeNet、VGGNet或AlexNet上调整的原因

第5章 卷积神经网络

5.1 CNN的结构

5.1.1 CNN和人类视觉的关系

5.1.2 CNN的结构组成

5.2 输入层

5.2.1 输入层作用

5.2.2 数据预处理

5.3 卷积层

5.3.1 卷积原理

5.3.2 卷积在图像中的作用

5.3.3 卷积层的基本参数

5.3.4 卷积核的类型

5.3.5 1×1卷积的作用

5.3.6 卷积核是否越大越好

5.3.7 每层卷积是否只能用一种尺寸的卷积核

5.3.8 如何减少卷积层参数量

5.3.9 在标准卷积中同时考虑通道和区域的优缺点

5.3.10 采用宽卷积的好处

5.4 激活层

5.4.1 激活层的作用

5.4.2 BN层和激活层的位置顺序选择

5.5 池化层

5.5.1 池化层作用

5.5.2 池化方法

5.5.3 卷积层和池化层的区别

5.5.4 NetVLAD池化

5.6 全连接层

5.6.1 全连接如何把二维特征图转化成一个一维向量

5.6.2 全卷积神经网络取代全连接层

5.6.3 图像分类中全连接层对卷积神经网络性能的影响

5.7 二维卷积与三维卷积

5.7.1 二维卷积与三维卷积的区别

5.7.2 图解三维卷积

5.7.3 RGB图不使用三维卷积的原因

5.8 理解转置卷积与棋盘效应

5.8.1 标准卷积

5.8.2 转置卷积

5.8.3 棋盘效应

5.9 卷积神经网络凸显共性的方法

5.9.1 局部连接

5.9.2 权重共享

5.9.3 池化操作

5.10 局部卷积

5.10.1 全连接、局部连接、全卷积与局部卷积对比

5.10.2 局部卷积的应用

5.11 CNN可视化

5.11.1 特征层学到了什么

5.11.2 特征层随训练而演化

5.11.3 消融分析

5.11.4 常见的网络可视化方法

5.12 卷积神经网络的优化及应用

5.12.1 卷积神经网络的参数设置

5.12.2 如何提高卷积神经网络的泛化能力

5.12.3 卷积神经网络的区域不变性和组合性

5.12.4 卷积神经网络在不同领域的应用

第6章 循环神经网络

6.1 为什么需要RNN

6.2 图解RNN基本结构

6.2.1 基本的单层网络结构

6.2.2 图解经典RNN结构

6.2.3 Vector-to-Sequence结构

6.2.4 Sequence-to-Vector结构

6.2.5 Encoder-Decoder结构

6.2.6 3种基本结构的应用场景

6.2.7 图解RNN中的注意机制

6.3 RNN的性质

6.3.1 RNN的典型特点

6.3.2 CNN和RNN的区别

6.3.3 RNN和FNN的异同

6.3.4 为什么RNN训练的时候损失值波动很大

6.4 RNN的后向传播

6.4.1 BPTT算法推导

6.4.2 RNN中为什么会出现梯度消失

6.4.3 如何解决RNN中的梯度消失问题

6.5 长短期记忆网络(LSTM)

6.5.1 LSTM的产生原因

6.5.2 标准的RNN和LSTM的区别

6.5.3 LSTM核心思想

6.5.4 LSTM流行的变体

6.5.5 LSTM与GRU的区别

6.6 常见的RNN结构上的扩展和改进

6.6.1 简单循环神经网络(SRN)

6.6.2 双向循环神经网络(BRNN)

6.6.3 深度循环神经网络(Deep RNN)

6.6.4 回声状态网络(ESN)

6.6.5 时钟频率驱动RNN(CW-RNN)

6.6.6 包含时间间隔的RNN

6.7 RNN在NLP中的典型应用举例

6.8 RNN与图像领域的结合举例

6.8.1 卷积循环神经网络

6.8.2 网格循环神经网络

6.8.3 像素循环神经网络

6.9 RNN与条件随机场的结合

第7章 生成对抗网络

7.1 GAN的基本概念

7.1.1 如何通俗地理解GAN

7.1.2 GAN的形式化表达

7.1.3 GAN的目标函数

7.1.4 GAN的目标函数和交叉熵损失的联系和区别

7.1.5 GAN的损失值为什么降不下去

7.1.6 生成式模型和判别式模型的区别

7.1.7 模式崩塌和模式丢弃

7.1.8 为什么会出现模式崩塌

7.1.9 如何解决模式崩塌问题

7.2 GAN的生成模型评价

7.2.1 Inception Score

7.2.2 Mode Score

7.2.3 Kernel MMD

7.2.4 Wasserstein Distance

7.2.5 Fréchet Inception Distance(FID)

7.2.6 1-NN分类器(1-Nearest Neighbor Classifier)

7.2.7 其他评价方法

7.3 其他常见的生成模型

7.3.1 自回归模型:pixelRNN与pixelCNN

7.3.2 变分自动编码器(VAE)原理

7.4 GAN的改进与优化

7.4.1 如何生成指定类型的图像(CGAN)

7.4.2 CNN与GAN的结合(DCGAN)

7.4.3 GAN为什么容易训练崩溃

7.4.4 WGAN如何解决训练崩溃问题

7.4.5 带有梯度正则的WGAN(WGAN-GP)

7.4.6 最小二乘GAN(LSGAN)

7.4.7 如何尽量避免GAN的训练崩溃问题

7.5 GAN的应用:图像翻译

7.5.1 什么是图像翻译

7.5.2 有监督图像翻译(pix2pix)

7.5.3 有监督图像翻译的缺点

7.5.4 无监督图像翻译(CycleGAN)

7.5.5 多领域的无监督图像翻译(StarGAN)

7.6 GAN的应用:文本生成

7.6.1 传统GAN为什么不适合文本任务

7.6.2 SeqGAN用于文本生成

7.7 GAN在其他领域的应用

7.7.1 数据增广

7.7.2 图像超分辨与图像补全

7.7.3 语音领域

第8章 目标检测

8.1 基本概念

8.1.1 目标检测

8.1.2 目标检测要解决的核心问题

8.1.3 目标检测的算法分类

8.1.4 目标检测的应用领域

8.2 two-stage目标检测算法

8.2.1 R-CNN

8.2.2 Fast R-CNN

8.2.3 Faster R-CNN

8.2.4 R-FCN

8.2.5 FPN

8.2.6 Mask R-CNN

8.3 one-stage目标检测算法

8.3.1 YOLO

8.3.2 YOLOv2

8.3.3 YOLO9000

8.3.4 YOLOv3

8.3.5 YOLOv4

8.3.6 SSD

8.3.7 DSSD

8.3.8 RetinaNet

8.3.9 RFBNet

8.3.10 M2Det

8.4 目标检测的常用数据集

8.4.1 PASCAL VOC

8.4.2 Microsoft COCO

8.4.3 谷歌Open Image

8.4.4 ImageNet

8.5 目标检测常用标注工具

8.5.1 LabelImg

8.5.2 LabelMe

8.5.3 Labelbox

8.5.4 RectLabel

8.5.5 CVAT

8.5.6 VIA

8.5.7 其他标注工具

第9章 图像分割

9.1 常见的图像分割算法

9.1.1 基于阈值的分割算法

9.1.2 基于边缘检测的分割算法

9.1.3 基于区域的分割算法

9.1.4 基于神经网络技术的图像分割算法

9.1.5 基于深度学习的图像分割算法分类

9.1.6 常见的深度学习图像分割算法

9.2 FCN

9.2.1 为什么CNN对像素级别的分类很难

9.2.2 FCN有哪些改变

9.2.3 FCN的结构

9.2.4 全连接层和卷积层如何相互转化

9.2.5 为什么传统CNN的输入图片大小是固定的

9.2.6 把全连接层的权重重塑成卷积层的滤波器的好处

9.2.7 FCN如何进行逐个像素点预测分类

9.2.8 反卷积层理解

9.2.9 跳级(skip)结构

9.2.10 模型训练

9.2.11 FCN的优缺点

9.3 U-Net

9.4 U-Net++

9.5 SegNet

9.6 LinkNet

9.7 RefineNet

9.8 PSPNet

9.9 DeepLab系列

9.9.1 DeepLabv1

9.9.2 DeepLabv2

9.9.3 DeepLabv3

9.9.4 DeepLabv3+

9.10 Mask R-CNN作为目标分割的介绍

9.10.1 Mask R-CNN框架

9.10.2 Mask R-CNN损失函数

9.10.3 Mask R-CNN算法步骤

9.10.4 RoI池化与RoI Align

9.10.5 Mask R-CNN代码实现总体框架

9.10.6 Mask R-CNN训练和推导过程的区别

9.10.7 Mask R-CNN扩展

9.11 基于弱监督学习的图像分割

9.11.1 涂鸦标记(ScribbleSup)

9.11.2 图像级别标记(CCNN)

9.11.3 期望最大化估计像素类别

9.11.4 图像、边框与涂鸦标记融合框架

第10章 迁移学习

10.1 迁移学习基础知识

10.1.1 什么是迁移学习

10.1.2 为什么需要迁移学习

10.1.3 迁移学习与已有学习方式的区别和联系

10.1.4 负迁移

10.2 迁移学习的研究领域

10.2.1 按目标域标签分类

10.2.2 按学习方法分类

10.2.3 按特征分类

10.2.4 按离线与在线形式分类

10.3 迁移学习的应用

10.3.1 计算机视觉

10.3.2 文本分类

10.3.3 时间序列

10.3.4 医疗健康

10.4 迁移学习的基本方法

10.4.1 基于实例的迁移学习方法

10.4.2 基于特征的迁移学习方法

10.4.3 基于模型的迁移学习方法

10.4.4 基于关系的迁移学习方法

10.5 分布对齐的常用方法

10.5.1 数据分布自适应方法

10.5.2 特征选择方法

10.5.3 子空间学习方法

10.6 深度迁移学习方法

10.6.1 深度网络的可迁移性

10.6.2 微调

10.6.3 深度网络自适应

10.6.4 深度对抗网络迁移

10.7 迁移学习研究前沿

10.7.1 机器智能与人类经验结合的迁移学习

10.7.2 传递迁移学习

10.7.3 终身迁移学习

10.7.4 在线迁移学习

10.7.5 迁移强化学习

10.7.6 迁移学习的可解释性

第11章 网络构架介绍及训练

11.1 TensorFlow

11.1.1 TensorFlow的设计理念

11.1.2 TensorFlow的特点

11.1.3 TensorFlow的系统架构

11.1.4 TensorFlow的编程模型

11.1.5 基于TensorFlow搭建VGG16

11.2 Caffe

11.2.1 Caffe的特性

11.2.2 Caffe2的特性

11.2.3 Caffe2和PyTorch的区别

11.3 PyTorch

11.3.1 为什么选择PyTorch

11.3.2 PyTorch的架构

11.3.3 PyTorch 1.0三大重要更新

11.4 常见的深度学习分布式框架

11.4.1 PaddlePaddle

11.4.2 Deeplearning4j

11.4.3 Mahout

11.4.4 Spark MLlib

11.4.5 Spark Stream

11.4.6 Ray

11.4.7 Horovod

11.4.8 BigDL

11.4.9 Petastorm

11.4.10 TensorFlowOnSpark

11.5 网络搭建原则及训练技巧

11.5.1 网络搭建原则

11.5.2 网络训练技巧

第12章 网络优化技巧

12.1 数据集和样本优化

12.1.1 如何解决训练样本少的问题

12.1.2 深度学习能否胜任所有数据集

12.1.3 训练集、验证集、测试集的定义及划分

12.1.4 类别不平衡的产生原因

12.1.5 常见的类别不平衡问题的解决方法

12.1.6 常用的数据增强方法

12.2 数据不匹配问题

12.2.1 如何定位数据不匹配问题

12.2.2 常见的数据不匹配的场景

12.2.3 如何解决数据不匹配问题

12.3 网络构建和初始化

12.3.1 权重的初始化方法

12.3.2 激活函数的特点

12.3.3 卷积核设计尺寸都是奇数的原因

12.3.4 在网络设计中要权重共享的原因

12.4 特征选择

12.4.1 特征的类型

12.4.2 如何考虑特征选择

12.4.3 特征选择方法分类

12.4.4 特征选择的目的

12.5 梯度消失和梯度爆炸

12.5.1 使用梯度更新规则的原因

12.5.2 梯度消失和梯度爆炸产生的原因

12.5.3 如何解决梯度消失和梯度爆炸问题

12.5.4 防止梯度下降陷入局部最优困境

12.6 评价指标

12.6.1 设置单一数字评价指标的原因

12.6.2 Top5错误率

12.6.3 理解泛化误差、方差和偏差

12.7 模型和系统优化

12.7.1 是否存在比已知算法更好的算法

12.7.2 判断和解决共线性问题

12.7.3 深度学习不用二阶优化的原因

12.7.4 提升模型的稳定性

12.7.5 改善模型的思路

12.7.6 快速构建有效初始模型

12.7.7 通过模型重新观察数据

12.7.8 提高深度学习系统的性能

第13章 超参数调整

13.1 超参数的概念

13.1.1 参数和超参数的区别

13.1.2 超参数的类别

13.1.3 进行超参数调优的原因

13.1.4 超参数的重要性排序

13.1.5 部分超参数如何影响模型性能

13.1.6 部分超参数的合适范围

13.2 网络训练中的超参数调整策略

13.2.1 超参数优化的一般过程

13.2.2 如何调试模型

13.2.3 学习率调整的原因

13.2.4 学习率调整的策略

13.2.5 在极端批样本数量下训练网络

13.3 合理使用预训练网络

13.3.1 什么是微调

13.3.2 微调的方式

13.3.3 微调先冻结底层而训练顶层的原因

13.3.4 在不同的数据集下如何进行微调

13.3.5 在目标检测中使用预训练模型的优劣

13.3.6 目标检测如何从零开始训练

13.4 自动化超参数搜索方法

13.4.1 网格搜索

13.4.2 随机搜索

13.4.3 基于模型的超参数优化

13.5 自动机器学习AutoML

13.5.1 为什么需要AutoML

13.5.2 AutoML的问题构成

13.5.3 常见的AutoML框架

13.5.4 神经架构搜索(NAS)

第14章 模型压缩、加速和移动端部署

14.1 模型压缩

14.2 为什么需要模型压缩和加速

14.3 模型压缩方法

14.3.1 前端压缩和后端压缩对比

14.3.2 网络剪枝

14.3.3 典型剪枝方法的对比

14.3.4 网络蒸馏

14.3.5 前端压缩

14.3.6 后端压缩

14.3.7 低秩分解

14.3.8 总体压缩效果评价指标

14.4 网络压缩的未来研究方向

14.5 模型优化加速方法

14.5.1 模型优化加速方法类别

14.5.2 TensorRT加速原理

14.5.3 TensorRT如何优化重构模型

14.5.4 TensorRT的加速效果

14.6 如何选择压缩和加速方法

14.7 高效CNN网络设计的准则

14.7.1 分组卷积

14.7.2 深度可分离卷积

14.7.3 当输入/输出的通道数相等时,MAC最小

14.7.4 减少分组卷积的数量

14.7.5 降低网络碎片化程度(分支数量)

14.7.6 减少元素级操作

14.8 常用的轻量级网络

14.8.1 SequeezeNet

14.8.2 MobileNet

14.8.3 MobileNet-v2

14.8.4 MobileNet-v1和MobileNet-v2微结构比较

14.8.5 ResNet和MobileNet-v2微结构比较

14.8.6 Xception

14.8.7 ShuffleNet-v1

14.8.8 ShuffleNet-v2

14.9 现有的移动端开源框架及其特点

14.9.1 NCNN

14.9.2 QNNPACK

14.9.3 Prestissimo

14.9.4 MDL

14.9.5 Paddle-Mobile

14.9.6 MACE

14.9.7 FeatherCNN

14.9.8 TensorFlow Lite

14.9.9 PocketFlow

14.9.10 MDL、NCNN和TFLite对比

14.10 移动端开源框架部署

后折页

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部