为你推荐
前折页
内容简介
编写组
总序
前言
第1章 引言
1.1 人工智能概述
1.1.1 人工智能产生的基础条件
1.1.2 人工智能的发展史
1.1.3 人工智能的几个重要分支
1.1.4 人工智能与机器学习和深度学习的关系
1.2 机器学习概述
1.2.1 机器学习的定义
1.2.2 机器学习的主要方法
1.2.3 机器学习的应用及其相关课程介绍
1.3 深度学习概述
1.3.1 深度学习产生的背景
1.3.2 深度学习的几种常用模型
1.3.3 深度学习的应用场合
1.3.4 深度学习开源工具
习题
参考文献
第2章 简单模型
2.1 KNN算法
2.1.1 算法原理
2.1.2 算法步骤
2.1.3 算法描述
2.1.4 算法评价
2.1.5 算法实例
2.2 线性回归
2.2.1 算法原理
2.2.2 模型求解
2.2.3 算法步骤
2.2.4 算法描述
2.2.5 算法评价
2.2.6 算法实例
2.3 逻辑回归
2.3.1 算法原理
2.3.2 模型求解
2.3.3 算法步骤
2.3.4 算法描述
2.3.5 算法评价
2.4 实验:逻辑回归算法
2.4.1 实验目的
2.4.2 实验要求
2.4.3 实验原理
2.4.4 实验步骤
2.4.5 实验结果
2.4.6 结果分析
习题
参考文献
第3章 贝叶斯学习
3.1 贝叶斯方法简述
3.2 贝叶斯基础理论
3.2.1 概率基础
3.2.2 贝叶斯方法
3.3 朴素贝叶斯
3.3.1 朴素贝叶斯法介绍
3.3.2 朴素贝叶斯法实例
3.3.3 朴素贝叶斯法优缺点
3.4 贝叶斯网络
3.4.1 贝叶斯网络介绍
3.4.2 贝叶斯网络实现
3.4.3 贝叶斯网络特性及应用
3.5 实验
3.5.1 实验目的
3.5.2 实验要求
3.5.3 实验原理
3.5.4 实验步骤
3.5.5 实验结果
习题
参考文献
第4章 决策树
4.1 决策树简述
4.1.1 树形结构
4.1.2 树的构建
4.2 划分属性选择
4.2.1 信息增益
4.2.2 增益率
4.2.3 基尼指数
4.3 剪枝处理
4.3.1 损失函数
4.3.2 先剪枝
4.3.3 后剪枝
4.4 决策树算法
4.4.1 ID3算法
4.4.2 C4.5算法
4.4.3 CART算法
4.5 实验:基于CART算法的鸢尾花决策树构建
4.5.1 实验目的
4.5.2 实验要求
4.5.3 实验原理
4.5.4 实验步骤
4.5.5 实验结果
习题
参考文献
第5章 支持向量机
5.1 最大间隔理论简介
5.2 两类问题的线性分类
5.2.1 线性可分的情况
5.2.2 最大间隔与支持向量
5.2.3 最大间隔的相关理论
5.2.4 线性不可分的情况
5.2.5 小结
5.3 非线性空间映射与核函数
5.3.1 非线性空间映射的概念和原理
5.3.2 核函数的选择与分析
5.3.3 核函数的选择依据
5.3.4 小结
5.4 多类问题的分类
5.4.1 一对一法
5.4.2 一对多法
5.4.3 其他方法
5.4.4 小结
5.5 实验
5.5.1 实验1:两类问题的线性可分问题
5.5.2 实验2:两类问题的非线性分类问题
5.5.3 实验3:UCI数据集中wine.data的多类分类问题
5.5.4 实验4:USPS手写阿拉伯数据库的识别
习题
参考文献
第6章 集成学习
6.1 集成学习简述
6.2 个体学习器与集成学习算法
6.2.1 个体学习器
6.2.2 集成学习算法
6.3 Bagging算法和随机森林算法
6.3.1 Bagging算法
6.3.2 随机森林算法
6.4 Boosting算法和AdaBoost算法
6.4.1 Boosting算法
6.4.2 AdaBoost算法
6.5 结合策略
6.5.1 平均法
6.5.2 投票法
6.5.3 学习法
6.6 实验:集成学习实例
6.6.1 一个简单的基于AdaBoost算法的二分类实现
6.6.2 基于决策树、Bagging和AdaBoost模型的糖尿病预测实验
习题
参考文献
第7章 聚类
7.1 聚类简述
7.1.1 基本概念
7.1.2 聚类类型
7.1.3 算法挑战
7.2 原型聚类
7.2.1 k均值聚类
7.2.2 k中心点聚类
7.3 密度聚类
7.3.1 基本术语
7.3.2 算法描述
7.4 层次聚类
7.4.1 层次聚类概述
7.4.2 BIRCH算法
7.4.3 CURE算法
7.5 实验:用k均值聚类实现篮球运动员聚类
7.5.1 实验目的
7.5.2 实验原理
7.5.3 实验步骤
7.5.4 实验结果及分析
习题
参考文献
第8章 感知机与神经网络
8.1 感知机
8.1.1 神经元模型
8.1.2 激活函数
8.1.3 感知机算法
8.2 神经网络原理
8.2.1 基本特征
8.2.2 前馈神经网络
8.3 反向传播神经网络
8.4 Hopfield神经网络
8.4.1 Hopfield神经网络简介
8.4.2 离散Hopfield神经网络
8.4.3 能量函数
8.5 实验:基于Python的感知机实验
8.5.1 实验目的
8.5.2 实验要求
8.5.3 实验原理
8.5.4 实验步骤
8.5.5 实验结果
习题
参考文献
第9章 卷积神经网络
9.1 卷积神经网络简述
9.1.1 发展历程
9.1.2 端到端的学习
9.2 网络部件
9.2.1 符号定义
9.2.2 卷积层
9.2.3 池化层
9.2.4 激活函数层
9.2.5 全连接层
9.2.6 目标函数
9.3 核心算法
9.3.1 随机梯度下降法
9.3.2 反向传播算法
9.4 激活函数和损失函数
9.4.1 激活函数
9.4.2 损失函数
9.5 经典CNN模型
9.5.1 LeNet
9.5.2 AlexNet
9.5.3 VGGNet
9.6 实验:应用CNN模型进行手写数字辨识
9.6.1 实验目的
9.6.2 实验要求
9.6.3 实验原理
9.6.4 实验步骤
9.6.5 实验结果
习题
参考文献
第10章 循环神经网络
10.1 RNN简介
10.1.1 RNN概述
10.1.2 RNN的工作原理
10.2 双向RNN
10.3 LSTM
10.3.1 LSTM遗忘门
10.3.2 LSTM输入门
10.3.3 LSTM输出门
10.3.4 前向传播的代码实现
10.3.5 反向传播的代码实现
10.4 GRU
10.5 RNN的实现
10.5.1 定义初始化类和初始化函数
10.5.2 定义激活函数
10.5.3 定义前向传播和反向传播
10.5.4 计算delta值和总的delta值
10.5.5 计算各个梯度的值和总梯度
10.5.6 定义梯度检查函数
10.5.7 构建测试函数并运行
10.6 实验:应用LSTM模型进行手写数字辨识
10.6.1 实验目的
10.6.2 实验要求
10.6.3 实验原理
10.6.4 实验步骤
10.6.5 实验结果
习题
参考文献
第11章 生成对抗网络
11.1 生成对抗网络简述
11.1.1 博弈
11.1.2 对抗
11.1.3 分类问题
11.2 生成对抗网络的基本原理、学习机制、应用、特点
11.2.1 生成对抗网络的基本原理
11.2.2 生成对抗网络的学习机制
11.2.3 生成对抗网络的应用
11.2.4 生成对抗网络的特点
11.3 生成对抗网络的变种网络
11.3.1 JointGAN
11.3.2 MD-GAN
11.3.3 MsCGAN
11.3.4 TGAN
11.3.5 HexaGAN
11.4 实验
11.4.1 基于SRGAN模型的人脸超分辨率实验
11.4.2 基于SRGAN的图像转换实验
习题
参考文献
第12章 强化学习
12.1 强化学习的引入
12.1.1 强化学习的概念
12.1.2 强化学习的特点
12.1.3 强化学习与监督学习
12.2 马尔可夫决策过程
12.2.1 策略与环境模型
12.2.2 值函数与Bellman公式
12.3 有模型学习——动态规划
12.3.1 策略迭代
12.3.2 值迭代
12.3.3 广义策略迭代
12.4 免模型学习——蒙特卡罗方法
12.4.1 蒙特卡罗方法
12.4.2 时序差分方法与SARSA算法
12.4.3 Q-Learning算法
12.4.4 DQN
12.5 实验
12.5.1 实验1:方块走迷宫
12.5.2 实验2:利用DQN实现“打砖块”游戏
习题
参考文献
附录A 人工智能实验环境
附录B 人工智能云平台
反侵权盗版声明
后折页
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜