万本电子书0元读

万本电子书0元读

顶部广告

机器学习导论电子书

《机器学习导论》从实战出发,内容全面,从基本概念手,介绍了各种机器学习的基本类型。现代机器学习部分,不仅仅是*受关注的深度神经网络学习,同时还介绍了近十年取得令人关注展的其他机器学习分支。着重于现代方法,但是也没有忘记详尽地介绍经典方法,刻画了机器学习学科发展历史上的各个里程碑式的重要成果,基本覆盖了机器学习技术各个时期的主要方向;第二,该书内容比较浅显,对大多数方法的介绍做到到为止。有利于门学生摆脱具体算法的纠缠,快速通读下去,避免信息破碎;第三,本书对各种方法的关联性做了重阐述,有利于形成知识脉络。第四,作者对每种技术都给出了大量参考文献,便于读者根据个体需求深学习。上述这些特对从事应用研究的初学者非常重要,基于这些信息,便于形成对机器学习技术总体思路的把握,从而可以在需要的时候能理清头绪,从众多机器学习方法中找到合适的工具。

售       价:¥

纸质售价:¥121.60购买纸书

107人正在读 | 0人评论 6.2

作       者:王东

出  版  社:清华大学出版社

出版时间:2021-02-01

字       数:42.8万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(2条)
  • 读书简介
  • 目录
  • 累计评论(2条)
本书分类《机器学习导论》面向机器学习领域的主要模型和算法,重阐述不同方法背后的基本假设以及它们之间的相关性,帮助读者建立机器学习的基础理论功底,为从事该领域的相关工作下基础。具体内容包括机器学习研究的总体思路、发展历史与关键问题,线性模型,神经网络及深度学习,核方法,图模型,无监督学习,非参数模型,演化学习,强化学习,数值优化方法等。 本书可作为高等学校相关课程的教材,也可作为研究生及对机器学习感兴趣的科技、工程技术人员的参考用书。本书封面贴有清华大学出版社防伪标签,无标签者不得销售。<br/>【推荐语】<br/>《机器学习导论》从实战出发,内容全面,从基本概念手,介绍了各种机器学习的基本类型。现代机器学习部分,不仅仅是*受关注的深度神经网络学习,同时还介绍了近十年取得令人关注展的其他机器学习分支。着重于现代方法,但是也没有忘记详尽地介绍经典方法,刻画了机器学习学科发展历史上的各个里程碑式的重要成果,基本覆盖了机器学习技术各个时期的主要方向;第二,该书内容比较浅显,对大多数方法的介绍做到到为止。有利于门学生摆脱具体算法的纠缠,快速通读下去,避免信息破碎;第三,本书对各种方法的关联性做了重阐述,有利于形成知识脉络。第四,作者对每种技术都给出了大量参考文献,便于读者根据个体需求深学习。上述这些特对从事应用研究的初学者非常重要,基于这些信息,便于形成对机器学习技术总体思路的把握,从而可以在需要的时候能理清头绪,从众多机器学习方法中找到合适的工具。<br/>【作者】<br/>王东, 1995-2002年清华本科、硕士,2010年英国爱丁堡大学博士,历任Oracle 中国软件工程师,IBM中国高级软件工程师,英国爱丁堡大学Marie Curie 研究员,法国EURECOM博士后研究员,美国Nuance公司高级研究科学家。现任清华大学语音语言中心副研究员,中心常务副主任,FreeNeb公司首席科学家。王东博士是全国人机语音通讯会议常设机构秘书长,是亚太信号信息处理联盟(APASIPA)语音专委会副主席、杰出讲师,是国际标准与语音数据资源委员会(COCOSDA)大陆区代表。王东博士自1997年始从事语音识别、自然语言处理方面的研究,在相关领域发表学术论文120余篇,公专利20余项,其专利技术在日本软银、新松、智能管家等多家国内外著名公司应用,创造了良了的社会效益和经济效益。<br/>
目录展开

封面页

书名页

版权页

内容简介

推荐序

前言

本书符号说明

本书使用说明

目录

第1章 机器学习概述

1.1 什么是机器学习

1.2 机器学习的基本框架

1.3 机器学习发展简史

1.4 机器学习的流派

1.4.1 符号学派

1.4.2 贝叶斯学派

1.4.3 连接学派

1.4.4 进化仿生学派

1.4.5 哪个学派更占主流

1.5 让人惊讶的学习

1.5.1 从猴子摘香蕉到星际大战

1.5.2 集体学习的机器人

1.5.3 图片理解

1.5.4 金融市场量化分析

1.5.5 AlphaGo

1.6 机器学习技术的前沿

1.7 机器智能会超过人类智能吗

1.8 机器学习基础

1.8.1 训练、验证与测试

1.8.2 参数过拟合、交叉验证与正则化

1.8.3 结构过拟合与模型选择

1.8.4 机器学习方法分类

1.9 开始你的机器学习之旅

1.9.1 如何开始一个机器学习任务

1.9.2 如何学习机器学习

1.10 相关资源

第2章 线性模型

2.1 线性预测模型

2.1.1 从多项式拟合说起

2.1.2 线性回归

2.1.3 Fisher准则与线性分类

2.1.4 Logistic回归

2.1.5 小结

2.2 线性概率模型

2.2.1 主成分分析

2.2.2 概率主成分分析

2.2.3 概率线性判别分析

2.3 贝叶斯方法

2.4 本章小结

2.5 相关资源

第3章 神经模型

3.1 神经网络概述

3.1.1 什么是人工神经网络

3.1.2 神经模型与其他方法

3.2 基于映射的神经模型

3.2.1 从线性模型开始

3.2.2 多层感知器

3.2.3 径向基函数网络

3.2.4 神经网络模型与先验知识

3.3 基于记忆的神经模型

3.3.1 Kohonen网络

3.3.2 Hopfield网络

3.3.3 玻尔兹曼机

3.3.4 受限玻尔兹曼机

3.3.5 自编码器

3.4 基于过程的模型

3.4.1 Elman RNN

3.4.2 门网络

3.4.3 序列对序列网络

3.4.4 基于Attention模型的诗词生成

3.5 神经图灵机

3.6 本章小结

3.7 相关资源

第4章 深度学习

4.1 从浅层学习到深度学习

4.1.1 网络表达能力

4.1.2 层次表示与特征学习

4.1.3 显著特征的非监督学习

4.1.4 复杂结构与数据驱动

4.2 深度神经网络训练

4.2.1 基础训练算法

4.2.2 DNN训练的困难

4.2.3 DNN训练技巧

4.3 神经网络的正则化

4.3.1 结构化网络与参数共享

4.3.2 范式约束与稀疏网络

4.3.3 加噪训练与数据增强

4.3.4 联合训练

4.3.5 知识迁移

4.4 生成模型下的深度学习

4.4.1 神经网络的简单概率表达

4.4.2 后验拟合与Variational AE

4.4.3 Variational RNN

4.5 计算图与复杂神经网络

4.5.1 由Chain Rule到计算图

4.5.2 基于计算图的参数优化

4.5.3 计算图的模块化

4.5.4 计算图与深度神经网络

4.6 计算平台与方法

4.6.1 GPU与TPU

4.6.2 并行计算

4.6.3 模型压缩

4.7 深度学习的应用

4.7.1 语音信号处理

4.7.2 自然语言处理

4.7.3 计算机视觉

4.8 本章小结

4.9 相关资源

第5章 核方法

5.1 从线性回归到核方法

5.2 核函数的性质

5.2.1 再生核希尔伯特空间与Mercer定理

5.2.2 核函数的基本性质

5.3 常用核函数

5.3.1 简单核函数

5.3.2 概率核

5.3.3 复杂对象上的核函数

5.4 Kernel PCA

5.5 高斯过程

5.6 支持向量机

5.6.1 线性可分的SVM

5.6.2 线性不可分的SVM

5.6.3 v-SVM

5.6.4 SVM的若干讨论

5.7 相关向量机

5.8 本章小结

5.9 相关资源

第6章 图模型

6.1 概率图模型简介

6.2 有向图模型

6.2.1 典型模型

6.2.2 有向图变量相关性判断

6.3 无向图模型

6.3.1 无向图变量相关性判断

6.3.2 有向图向无向图转化

6.3.3 有向图和无向图对比

6.4 常用概率图模型

6.4.1 高斯混合模型

6.4.2 隐马尔可夫模型

6.4.3 线性条件随机场

6.5 EM算法

6.6 精确推理算法

6.6.1 加和—乘积算法

6.6.2 树状图的加和—乘积算法

6.6.3 联合树算法

6.7 近似推理算法

6.7.1 采样法

6.7.2 变分法

6.7.3 采样法和变分法比较

6.8 本章小结

6.9 相关资源

第7章 无监督学习

7.1 无监督学习任务

7.1.1 聚类概述

7.1.2 流形学习概述

7.1.3 因子学习

7.2 聚类方法

7.2.1 基于划分的聚类方法

7.2.2 基于连接的聚类方法

7.2.3 基于密度的聚类方法

7.2.4 基于模型的聚类方法

7.3 流形学习

7.3.1 主成分分析

7.3.2 多维标度

7.3.3 ISOMAP

7.3.4 自组织映射

7.3.5 局部线性嵌入

7.3.6 谱嵌入

7.3.7 t-SNE

7.3.8 流形学习方法比较

7.4 图模型与无监督学习

7.4.1 图模型下的聚类任务

7.4.2 图模型下的流形学习

7.4.3 图模型下的因子学习

7.5 神经模型与无监督学习

7.5.1 特征学习任务中的因子学习

7.5.2 生成任务中的因子学习

7.5.3 分类/回归任务中的因子学习

7.6 本章小结

7.7 相关资源

第8章 非参数模型

8.1 简单非参数模型

8.2 回顾高斯过程

8.2.1 高斯过程定义

8.2.2 高斯过程回归

8.2.3 高斯过程用于分类任务

8.3 狄利克雷过程

8.3.1 回顾高斯混合模型

8.3.2 中国餐馆问题

8.3.3 狄利克雷分布及性质

8.3.4 狄利克雷过程的定义

8.3.5 狄利克雷过程的表示

8.3.6 狄利克雷过程的构造

8.3.7 推理方法

8.3.8 Hierarchical DP(HDP)

8.4 本章小结

8.5 相关资源

第9章 演化学习

9.1 基于采样的优化方法

9.1.1 演化学习

9.1.2 群体学习与随机优化

9.2 遗传算法

9.2.1 算法框架

9.2.2 算法细节

9.2.3 进化理论

9.3 遗传编程

9.3.1 算法基础

9.3.2 GP高级话题

9.3.3 其他演化学习方法

9.4 群体学习方法

9.4.1 蚁群优化算法

9.4.2 人工蜂群算法

9.4.3 粒子群算法

9.4.4 捕猎者搜索

9.4.5 萤火虫算法

9.5 随机优化方法

9.5.1 模拟退火算法

9.5.2 杜鹃搜索

9.5.3 和声搜索

9.5.4 禁忌搜索

9.6 本章小节

9.7 相关资源

第10章 强化学习

10.1 强化学习概述

10.1.1 什么是强化学习

10.1.2 与其他学习方法的区别

10.1.3 强化学习的应用

10.2 强化学习的基本要素

10.2.1 强化学习三元素

10.2.2 长期收益

10.2.3 值函数与策略优化

10.2.4 通用策略迭代

10.2.5 强化学习算法分类

10.3 值函数学习:基于模型的规划算法

10.3.1 马尔可夫决策过程

10.3.2 MDP中的值函数

10.3.3 策略估值:动态规划算法

10.3.4 策略优化:策略迭代和值迭代

10.4 值函数学习:基于采样的蒙特卡罗方法

10.4.1 学习任务与采样方法

10.4.2 蒙特卡罗策略估值

10.4.3 蒙特卡罗策略优化

10.5 值函数学习:基于采样的时序差分方法

10.5.1 基于TD的策略估值

10.5.2 基于TD的策略优化

10.5.3 N-step TD与TD(λ)

10.5.4 三种值函数学习方法总结

10.6 模型学习

10.6.1 值函数学习与模型学习

10.6.2 模型学习方法

10.6.3 Dyna:混合学习方法

10.7 函数近似与策略学习

10.7.1 值函数近似

10.7.2 基于梯度的参数优化

10.7.3 基于函数近似的策略学习

10.7.4 Actor-Critic方法

10.8 深度强化学习方法

10.8.1 Atari游戏

10.8.2 AlphaGo

10.9 本章小结

10.10 相关资源

第11章 优化方法

11.1 函数优化

11.1.1 优化问题定义

11.1.2 优化问题分类

11.1.3 基础定理

11.2 无约束优化问题

11.2.1 线性搜索

11.2.2 置信域优化

11.3 带约束优化问题

11.3.1 拉格朗日乘子法

11.3.2 对偶问题

11.3.3 线性规划

11.3.4 二阶规划

11.3.5 一般非线性优化

11.4 本章小结

11.5 相关资源

参考文献

累计评论(2条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部