万本电子书0元读

万本电子书0元读

顶部广告

机器学习从认知到实践(第1辑)(套装共3册,Python+R)电子书

售       价:¥

221人正在读 | 1人评论 6.2

作       者:(美)Alexander T. Combs,(美)鲍尔斯 著,(美)威利

出  版  社:人民邮电出版社

出版时间:2017-01-01

字       数:51.9万

所属分类: 科技 > 计算机/网络 > 软件系统

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
在学习和研究机器学习的时候,面临令人眼花缭乱的算法,机器学习新手往往会不知所措。《机器学习从认知到实践(第1辑)(套装共3册,Python+R)》通过R和Python两门门语言,对想要了解机器学习概念、机器学习算法和探索深度学习应用的读者学习参考,本书适合数据分析人员、对算法感兴趣的读者、机器学习领域的从业人员及科研人员阅读。
目录展开

总目录

Python机器学习实践指南

目录

内容提要

作者简介

审阅者简介

译者简介

译者序

前言

本书涵盖的内容

阅读本书需要准备什么

本书的读者

约定

读者反馈

客户支持

下载示例代码

勘误

盗版行为

疑问

第1章 Python机器学习的生态系统

1.1 数据科学/机器学习的工作流程

1.1.1 获取

1.1.2 检查和探索

1.1.3 清理和准备

1.1.4 建模

1.1.5 评估

1.1.6 部署

1.2 Python库和功能

1.2.1 获取

1.2.2 检查

1.2.3 准备

1.2.4 建模和评估

1.2.5 部署

1.3 设置机器学习的环境

1.4 小结

第2章 构建应用程序,发现低价的公寓

2.1 获取公寓房源数据

使用import.io抓取房源数据

2.2 检查和准备数据

2.2.1 分析数据

2.2.2 可视化数据

2.3 对数据建模

2.3.1 预测

2.3.2 扩展模型

2.4 小结

第3章 构建应用程序,发现低价的机票

3.1 获取机票价格数据

3.2 使用高级的网络爬虫技术检索票价数据

3.3 解析DOM以提取定价数据

通过聚类技术识别异常的票价

3.4 使用IFTTT发送实时提醒

3.5 整合在一起

3.6 小结

第4章 使用逻辑回归预测IPO市场

4.1 IPO市场

4.1.1 什么是IPO

4.1.2 近期IPO市场表现

4.1.3 基本的IPO策略

4.2 特征工程

4.3 二元分类

4.4 特征的重要性

4.5 小结

第5章 创建自定义的新闻源

5.1 使用Pocket应用程序,创建一个监督训练的集合

5.1.1 安装Pocket的Chrome扩展程序

5.1.2 使用Pocket API来检索故事

5.2 使用embed.ly API下载故事的内容

5.3 自然语言处理基础

5.4 支持向量机

5.5 IFTTT与文章源、Google表单和电子邮件的集成

通过IFTTT设置新闻源和Google表单

5.6 设置你的每日个性化新闻简报

5.7 小结

第6章 预测你的内容是否会广为流传

6.1 关于病毒性,研究告诉我们了些什么

6.2 获取分享的数量和内容

6.3 探索传播性的特征

6.3.1 探索图像数据

6.3.2 探索标题

6.3.3 探索故事的内容

6.4 构建内容评分的预测模型

6.5 小结

第7章 使用机器学习预测股票市场

7.1 市场分析的类型

7.2 关于股票市场,研究告诉我们些什么

7.3 如何开发一个交易策略

7.3.1 延长我们的分析周期

7.3.2 使用支持向量回归,构建我们的模型

7.3.3 建模与动态时间扭曲

7.4 小结

第8章 建立图像相似度的引擎

8.1 图像的机器学习

8.2 处理图像

8.3 查找相似的图像

8.4 了解深度学习

8.5 构建图像相似度的引擎

8.6 小结

第9章 打造聊天机器人

9.1 图灵测试

9.2 聊天机器人的历史

9.3 聊天机器人的设计

9.4 打造一个聊天机器人

9.5 小结

第10章 构建推荐引擎

10.1 协同过滤

10.1.1 基于用户的过滤

10.1.2 基于项目的过滤

10.2 基于内容的过滤

10.3 混合系统

10.4 构建推荐引擎

10.5 小结

Python机器学习 预测分析核心算法

目录

内容提要

作者简介

技术编辑简介

致谢

前言

本书的目标读者

本书包含的内容

本书的组织

如何使用本书

约定

源代码

勘误表

第1章 关于预测的两类核心算法

1.1 为什么这两类算法如此有用

1.2 什么是惩罚回归方法

1.3 什么是集成方法

1.4 算法的选择

1.5 构建预测模型的流程

1.5.1 构造一个机器学习问题

1.5.2 特征提取和特征工程

1.5.3 确定训练后模型的性能

1.6 各章内容及其依赖关系

小结

参考文献

第2章 通过理解数据来了解问题

2.1 “解剖”一个新问题

2.1.1 属性和标签的不同类型决定模型的选择

2.1.2 新数据集的注意事项

2.2 分类问题:用声纳发现未爆炸的水雷

2.2.1 “岩石vs.水雷”数据集的物理特性

2.2.2 “岩石vs.水雷”数据集统计特征

2.2.3 用分位数图展示异常点

2.2.4 类别属性的统计特征

2.2.5 利用Python Pandas对“岩石vs.水雷”数据集进行统计分析

2.3 对“岩石vs.水雷”数据集属性的可视化展示

2.3.1 利用平行坐标图进行可视化展示

2.3.2 属性和标签的关系可视化

2.3.3 用热图(heat map)展示属性和标签的相关性

2.3.4 对“岩石vs.水雷”数据集探究过程小结

2.4 基于因素变量的实数值预测:鲍鱼的年龄

2.4.1 回归问题的平行坐标图:鲍鱼问题的变量关系可视化

2.4.2 回归问题如何使用关联热图—鲍鱼问题的属性对关系的可视化

2.5 用实数值属性预测实数值目标:评估红酒口感

2.6 多类别分类问题:它属于哪种玻璃

小结

参考文献

第3章 预测模型的构建:平衡性能、复杂性以及大数据

3.1 基本问题:理解函数逼近

3.1.1 使用训练数据

3.1.2 评估预测模型的性能

3.2 影响算法选择及性能的因素——复杂度以及数据

3.2.1 简单问题和复杂问题的对比

3.2.2 一个简单模型与复杂模型的对比

3.2.3 影响预测算法性能的因素

3.2.4 选择一个算法:线性或者非线性

3.3 度量预测模型性能

3.3.1 不同类型问题的性能评价指标

3.3.2 部署模型的性能模拟

3.4 模型与数据的均衡

3.4.1 通过权衡问题复杂度、模型复杂度以及数据集规模来选择模型

3.4.2 使用前向逐步回归来控制过拟合

3.4.3 评估并理解你的预测模型

3.4.4 通过惩罚回归系数来控制过拟合——岭回归

小结

参考文献

第4章 惩罚线性回归模型

4.1 为什么惩罚线性回归方法如此有效

4.1.1 足够快速地估计系数

4.1.2 变量的重要性信息

4.1.3 部署时的预测足够快速

4.1.4 性能可靠

4.1.5 稀疏解

4.1.6 问题本身可能需要线性模型

4.1.7 什么时候使用集成方法

4.2 惩罚线性回归:对线性回归进行正则化以获得最优性能

4.2.1 训练线性模型:最小化错误以及更多

4.2.2 向OLS公式中添加一个系数惩罚项

4.2.3 其他有用的系数惩罚项:Manhattan以及ElasticNet

4.2.4 为什么套索惩罚会导致稀疏的系数向量

4.2.5 ElasticNet惩罚项包含套索惩罚项以及岭惩罚项

4.3 求解惩罚线性回归问题

4.3.1 理解最小角度回归与前向逐步回归的关系

4.3.2 LARS如何生成数百个不同复杂度的模型

4.3.3 从数百个LARS生成结果中选择最佳模型

利用交叉验证进行模型选择

在交叉验证的每一份数据上累加错误以及评估结果

关于模型选择以及训练次序的实际考虑

4.3.4 使用Glmnet:非常快速并且通用

Glmnet与LARS算法工作原理的比较

初始化并且进行Glmnet算法的迭代

4.4 输入为数值型数据的线性回归方法的扩展

4.4.1 使用惩罚回归求解分类问题

4.4.2 求解超过2种输出的分类问题

4.4.3 理解基扩展:使用线性方法来解决非线性问题

4.4.4 向线性方法中引入非数值属性

小结

参考文献

第5章 使用惩罚线性方法来构建预测模型

5.1 惩罚线性回归的Python包

5.2 多变量回归:预测红酒口感

5.2.1 构建并测试模型以预测红酒口感

5.2.2 部署前在整个数据集上进行训练

5.2.3 基扩展:基于原始属性扩展新属性来改进性能

5.3 二分类:使用惩罚线性回归来检测未爆炸的水雷

构建部署用的岩石水雷分类器

5.4 多类别分类-分类犯罪现场的玻璃样本

小结

参考文献

第6章 集成方法

6.1 二元决策树

6.1.1 如何利用二元决策树进行预测

6.1.2 如何训练一个二元决策树

6.1.3 决策树的训练等同于分割点的选择

分割点的选择如何影响预测效果

分割点选择算法

多变量决策树的训练-选择哪个属性进行分割

通过递归分割获得更深的决策树

6.1.4 二元决策树的过拟合

二元决策树过拟合的度量

权衡二元决策树复杂度以获得最佳性能

6.1.5 针对分类问题和类别特征所做的修改

6.2 自举集成:Bagging算法

6.2.1 Bagging算法是如何工作的

Bagging 的性能-偏差与方差(bias vs.variance)

Bagging算法如何解决多变量问题

Bagging算法为达到一定性能需要的决策树深度

6.2.2 Bagging算法小结

6.3 梯度提升法(Gradient Boosting)

6.3.1 梯度提升法的基本原理

梯度提升法参数设置

梯度提升法如何通过迭代获得预测模型

6.3.2 获取梯度提升法的最佳性能

6.3.3 针对多变量问题的梯度提升法

6.3.4 梯度提升方法的小结

6.4 随机森林

6.4.1 随机森林:Bagging加上随机选择的属性子集

6.4.2 随机森林的性能

6.4.3 随机森林小结

小结

参考文献

第7章 用Python构建集成模型

7.1 用Python集成方法工具包解决回归问题

7.1.1 构建随机森林模型来预测红酒口感

构建RandomForestRegressor对象

用RandomForestRegressor对红酒口感问题建模

可视化随机森林回归模型的性能

7.1.2 用梯度提升预测红酒品质

使用GradientBoostingRegressor类的构造函数

用GradientBoostingRegressor实现回归模型

评估梯度提升模型的性能

7.2 用Bagging来预测红酒口感

7.3 Python集成方法引入非数值属性

7.3.1 对鲍鱼性别属性编码引入Python随机森林回归方法

7.3.2 评估性能以及变量编码的重要性

7.3.3 在梯度提升回归方法中引入鲍鱼性别属性

7.3.4 梯度提升法的性能评价以及变量编码的重要性

7.4 用Python集成方法解决二分类问题

7.4.1 用Python随机森林方法探测未爆炸的水雷

7.4.2 构建随机森林模型探测未爆炸水雷

7.4.3 随机森林分类器的性能

7.4.4 用Python梯度提升法探测未爆炸水雷

7.4.5 梯度提升法分类器的性能

7.5 用Python集成方法解决多类别分类问题

7.5.1 用随机森林对玻璃进行分类

7.5.2 处理类不均衡问题

7.5.3 用梯度提升法对玻璃进行分类

7.5.4 评估在梯度提升法中使用随机森林基学习器的好处

7.6 算法比较

小结

参考文献

深度学习精要 基于R语言

目录

内容提要

作者简介

审阅人简介

前言

本书的内容

预备知识

目标读者

排版约定

读者反馈

客户支持

下载示例代码

下载本书的彩色图像

勘误

盗版举报

问题解答

第1章 深度学习入门

1.1 什么是深度学习

1.2 神经网络的概念综述

1.3 深度神经网络

1.4 用于深度学习的R包

1.5 建立可重复的结果

1.5.1 神经网络

1.5.2 deepnet包

1.5.3 darch包

1.5.4 H2O包

1.6 连接R和H2O

1.6.1 初始化H2O

1.6.2 数据集连结到H2O集群

1.7 小结

第2章 训练预测模型

2.1 R中的神经网络

2.1.1 建立神经网络

2.1.2 从神经网络生成预测

2.2 数据过拟合的问题——结果的解释

2.3 用例——建立并运用神经网络

2.4 小结

第3章 防止过拟合

3.1 L1罚函数

3.2 L2罚函数

3.2.1 L2罚函数实战

3.2.2 权重衰减(神经网络中的L2罚函数)

3.3 集成和模型平均

3.4 用例——使用丢弃提升样本外模型性能

3.5 小结

第4章 识别异常数据

4.1 无监督学习入门

4.2 自动编码器如何工作

正则化的自动编码器

1.惩罚的自动编码器

2.去噪自动编码器

4.3 在R中训练自动编码器

4.4 用例——建立并运用自动编码器模型

4.5 微调自动编码器模型

4.6 小结

第5章 训练深度预测模型

5.1 深度前馈神经网络入门

5.2 常用的激活函数——整流器、双曲正切和maxout

5.3 选取超参数

5.4 从深度神经网络训练和预测新数据

5.5 用例——为自动分类生成深度神经网络

5.6 小结

第6章 调节和优化模型

6.1 处理缺失数据

6.2 低准确度模型的解决方案

6.2.1 网格搜索

6.2.2 随机搜索

6.3 小结

参考文献

累计评论(1条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部