万本电子书0元读

万本电子书0元读

顶部广告

机器学习实战:基于Scikit-Learn、Keras和TensorFlow(原书第3版)电子书

随着一系列的技术突破,深度学习推动了整个机器学习领域的发展。现在,即使是对这项技术几乎一无所知的程序员也可以使用简单有效的工具来实现“可以自动从数据中学习”的程序。这本畅销书的更新版通过具体的示例、非常少的理论和可用于生产环境的Python框架(Scikit-Learn、Keras和TensorFlow)来帮助你直观地理解并掌握构建智能系统所需要的概念和工具。 在本书中,你会学到一系列可以快速使用的技术,从简单的线性回归始,一直到深度神经网络。书中提供了大量的代码示例,并且每章的练习题可以帮助你应用所学的知识,你只需要有一些编程经验。

售       价:¥

纸质售价:¥119.20购买纸书

14人正在读 | 0人评论 6.6

作       者:(法)奥雷利安·杰龙(Aurélien Géron)

出  版  社:机械工业出版社

出版时间:2024-06-11

字       数:51.3万

所属分类: 科技 > 计算机/网络 > 计算机理论与教程

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
本书分为两大部分:di一部分主要基于Scikit-Learn,介绍机器学习的基础算法;第二部分则使用TensorFlow和Keras,介绍神经网络与深度学习。此外,附录部分的内容也非常丰富,包括课后练习题解答、机器学习项目清单、SVM对偶问题、自动微分和特殊数据结构等。书中内容广博,覆盖了机器学习的各个领域,不仅介绍了传统的机器学习模型,包括支持向量机、决策树、随机森林和集成方法,还提供了使用Scikit-Learn行机器学习的端到端训练示例。作者尤其对深度神经网络行了深的探讨,包括各种神经网络架构、强化学习,以及如何使用TensorFlow/Keras库来构建和训练神经网络。本书兼顾理论与实战,既适合在校学生,又适合有经验的工程师。<br/>【推荐语】<br/>随着一系列的技术突破,深度学习推动了整个机器学习领域的发展。现在,即使是对这项技术几乎一无所知的程序员也可以使用简单有效的工具来实现“可以自动从数据中学习”的程序。这本畅销书的更新版通过具体的示例、非常少的理论和可用于生产环境的Python框架(Scikit-Learn、Keras和TensorFlow)来帮助你直观地理解并掌握构建智能系统所需要的概念和工具。 在本书中,你会学到一系列可以快速使用的技术,从简单的线性回归始,一直到深度神经网络。书中提供了大量的代码示例,并且每章的练习题可以帮助你应用所学的知识,你只需要有一些编程经验。 通过本书,你将能够: ·使用Scikit-Learn通过端到端项目来学习机器学习基础知识。 ·探索几个模型,包括支持向量机、决策树、随机森林和集成方法。 ·探索无监督学习技术,如降维、聚类和异常检测。 ·深研究神经网络架构,包括卷积网络、循环网络、生成对抗网络、自动编码器、扩散模型和转换器。 ·使用TensorFlow和Keras构建和训练用于计算机视觉、自然语言处理、生成模型和深度强化学习的神经网络。<br/>【作者】<br/>Aurélien Géron是机器学习方面的顾问。他曾就职于Google,在2013年到2016年领导过YouTube视频分类团队。他是Wifirst公司(法国领先的无线互联网服务供应商)的创始人,并于2002年至2012年担任该公司的首席技术官。2001年,他创办Ployconseil公司(一家电信咨询公司),并任首席技术官。<br/>
目录展开

书名页

O'Reilly Media,Inc.介绍

前言

第一部分 机器学习的基础知识

第1章 机器学习概览

1.1 什么是机器学习

1.2 为什么使用机器学习

1.3 应用示例

1.4 机器学习系统的类型

1.5 机器学习的主要挑战

1.6 测试和验证

1.7 练习题

第2章 端到端机器学习项目

2.1 使用真实数据

2.2 放眼大局

2.3 获取数据

2.4 探索和可视化数据以获得见解

2.5 为机器学习算法准备数据

2.6 选择和训练模型

2.7 微调模型

2.8 启动、监控和维护系统

2.9 试试看

2.10 练习题

第3章 分类

3.1 MNIST

3.2 训练二元分类器

3.3 性能测量

3.4 多类分类

3.5 错误分析

3.6 多标签分类

3.7 多输出分类

3.8 练习题

第4章 训练模型

4.1 线性回归

4.2 梯度下降

4.3 多项式回归

4.4 学习曲线

4.5 正则化线性模型

4.6 逻辑回归

4.7 练习题

第5章 支持向量机

5.1 线性SVM分类

5.2 非线性SVM分类

5.3 SVM回归

5.4 线性SVM分类器的工作原理

5.5 对偶问题

5.6 练习题

第6章 决策树

6.1 训练和可视化决策树

6.2 做出预测

6.3 估计类概率

6.4 CART训练算法

6.5 计算复杂度

6.6 基尼杂质或熵

6.7 正则化超参数

6.8 回归

6.9 对轴方向的敏感性

6.10 决策树具有高方差

6.11 练习题

第7章 集成学习和随机森林

7.1 投票分类器

7.2 bagging和pasting

7.3 随机森林

7.4 提升法

7.5 堆叠法

7.6 练习题

第8章 降维

8.1 维度的诅咒

8.2 降维的主要方法

8.3 PCA

8.4 随机投影

8.5 LLE

8.6 其他降维技术

8.7 练习题

第9章 无监督学习技术

9.1 聚类算法:k均值和DBSCAN

9.2 高斯混合模型

9.3 练习题

第二部分 神经网络与深度学习

第10章 Keras人工神经网络简介

10.1 从生物神经元到人工神经元

10.2 使用Keras实现MLP

10.3 微调神经网络超参数

10.4 练习题

第11章 训练深度神经网络

11.1 梯度消失和梯度爆炸问题

11.2 重用预训练层

11.3 更快的优化器

11.4 学习率调度

11.5 通过正则化避免过拟合

11.6 总结和实用指南

11.7 练习题

第12章 使用TensorFlow自定义模型和训练

12.1 TensorFlow快速浏览

12.2 像使用NumPy一样使用TensorFlow

12.3 自定义模型和训练算法

12.4 TensorFlow函数和图

12.5 练习题

第13章 使用TensorFlow加载和预处理数据

13.1 tf.data API

13.2 TFRecord格式

13.3 Keras预处理层

13.4 TensorFlow数据集项目

13.5 练习题

第14章 使用卷积神经网络进行深度计算机视觉

14.1 视觉皮层的结构

14.2 卷积层

14.3 池化层

14.4 使用Keras实现池化层

14.5 CNN架构

14.6 使用Keras实现ResNet-34 CNN

14.7 使用Keras的预训练模型

14.8 使用预训练模型进行迁移学习

14.9 分类和定位

14.10 物体检测

14.11 物体跟踪

14.12 语义分割

14.13 练习题

第15章 使用RNN和CNN处理序列

15.1 循环神经元和层

15.2 训练RNN

15.3 预测时间序列

15.4 处理长序列

15.5 练习题

第16章 基于RNN和注意力机制的自然语言处理

16.1 使用字符RNN生成莎士比亚文本

16.2 情感分析

16.3 用于神经机器翻译的编码器-解码器网络

16.4 注意力机制

16.5 Transformer模型的雪崩

16.6 视觉Transformer

16.7 Hugging Face的Transformer库

16.8 练习题

第17章 自动编码器、GAN和扩散模型

17.1 有效的数据表示

17.2 使用不完备的线性自动编码器执行PCA

17.3 堆叠式自动编码器

17.4 卷积自动编码器

17.5 去噪自动编码器

17.6 稀疏自动编码器

17.7 变分自动编码器

17.8 生成Fashion MNIST图像

17.9 生成对抗网络

17.10 扩散模型

17.11 练习题

第18章 强化学习

18.1 学习优化奖励

18.2 策略搜索

18.3 OpenAI Gym介绍

18.4 神经网络策略

18.5 评估动作:信用分配问题

18.6 策略梯度

18.7 马尔可夫决策过程

18.8 时序差分学习

18.9 Q学习

18.10 实现深度Q学习

18.11 深度Q学习的变体

18.12 一些流行的RL算法概述

18.13 练习题

第19章 大规模训练和部署TensorFlow模型

19.1 为TensorFlow模型提供服务

19.2 将模型部署到移动设备或嵌入式设备

19.3 在Web页面中运行模型

19.4 使用GPU加速计算

19.5 跨多个设备训练模型

19.6 练习题

致读者

附录A 机器学习项目清单

附录B 自动微分

附录C 特殊数据结构

附录D TensorFlow图

作者介绍

封面介绍

累计评论(1条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部