万本电子书0元读

万本电子书0元读

顶部广告

Python数据预处理技术与实践电子书

本书结合作者的项目经验,从实际工程需求出发,循序渐地介绍了大数据预处理相关技术、流行工具与应用案例,全书分为三部分,核心内容概要如下: *部分 数据预处理的基础知识。包括数据预处理的基本概念、工作流程、应用场景、发环境、门演练和Python科学计算工具包Numpy、SciPy、Pandas的实际应用等。 第二部分 数据预处理的实战阶。内容包括: 数据采集与存储,主要涉及数据结构类型和采集方式,着重介绍了爬虫技术以及不同格式的文本信息抽取和文件读取。

售       价:¥

纸质售价:¥38.00购买纸书

108人正在读 | 1人评论 6.2

作       者:白宁超、唐聃、文俊

出  版  社:清华大学出版社

出版时间:2019-12-01

字       数:9.5万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
本书基础理论和工程应用相结合,循序渐地介绍了数据预处理的基本概念、基础知识、工具应用和相关案例,包括网络爬虫、数据抽取、数据清洗、数据集成、数据变换、数据向量化、数据规约等知识,书中针对每个知识,都给出了丰富的教学实例和实现代码,*后,通过一个新闻文本分类的实际项目讲解了数据预处理技术在实际中的应用。 本书的特是几乎涵盖了数据预处理的各种常用技术及主流工具应用,示例代码很丰富,适合于大数据从业者、AI技术发人员以及高校大数据专业的学生使用。<br/>【推荐语】<br/>本书结合作者的项目经验,从实际工程需求出发,循序渐地介绍了大数据预处理相关技术、流行工具与应用案例,全书分为三部分,核心内容概要如下: *部分 数据预处理的基础知识。包括数据预处理的基本概念、工作流程、应用场景、发环境、门演练和Python科学计算工具包Numpy、SciPy、Pandas的实际应用等。 第二部分 数据预处理的实战阶。内容包括: 数据采集与存储,主要涉及数据结构类型和采集方式,着重介绍了爬虫技术以及不同格式的文本信息抽取和文件读取。 高效读取文件、正则清洗文本信息、网页数据清洗和文本批量清洗。 中文分词精讲、封装分词工具包、NLTK词频处理、命名实体抽取和批量分词处理。 特征向量化处理,涉及数据解析、缺失值处理、归一化处理、特征词文本向量化、词频-逆词频、词集模型、词袋模型和批量文本特征向量化。 基于Gensim的文本特征向量化,涉及构建语料词典、词频统计、词频-逆词频计算、主题模型和特征降维等。 主成分分析PCA降维技术的原理和实际案例。 Matplotlib数据可视化分析案例。 第三部分 数据预处理的实际应用。主要介绍竞赛神器XGBoost的算法原理、应用、优化调参以及数据预处理在文本分类中的实际应用。<br/>【作者】<br/>白宁超,大数据工程师,现任职于四川省计算机研究院,研究方向包括数据分析、自然语言处理和深度学习。主持和参与国家自然基金项目和四川省科技支撑计划项目多项,出版专著1部。 唐聃,教授,硕士生导师,成都信息工程大学软件工程学院院长,四川省学术和技术带头人后备人选。研究方向包括编码理论与人工智能,《自然语言处理理论与实战》一书作者。 文俊,硕士,大数据算法工程师,现任职于成都广播电视台橙视传媒大数据中心。曾以技术总监身份主持研发多个商业项目,负责公司核心算法模型构建。主要研究方向包括数据挖掘、自然语言处理、深度学习及云计算。<br/>
目录展开

作者简介

内容简介

前言

本书的主要内容

本书的主要特色

本书面向的读者

源码下载和说明

本书作者介绍

第1章 概 述

1.1 Python数据预处理

1.2 开发工具与环境

1.3 实战案例:第一个中文分词程序

1.4 本章小结

第2章 Python科学计算工具

2.1 NumPy

2.2 SciPy

2.3 Pandas

2.4 本章小结

第3章 数据采集与存储

3.1 数据与数据采集

3.2 数据类型与采集方法

3.3 网络爬虫技术

3.4 爬取数据以JSON格式进行存储

3.5 爬取数据的MySQL存储

3.6 网络爬虫技术扩展

3.7 本章小结

第4章 文本信息抽取

4.1 文本抽取概述

4.2 文本抽取问题

4.3 Pywin32抽取文本信息

4.4 文本批量编码

4.5 实战案例:遍历文件批量抽取新闻文本内容

4.6 本章小结

第5章 文本数据清洗

5.1 新闻语料的准备

5.2 高效读取文件

5.3 通过正则表达式来清洗文本数据

5.4 清洗HTML网页数据

5.5 简繁字体转换

5.6 实战案例:批量新闻文本数据清洗

5.7 本章小结

第6章 中文分词技术

6.1 中文分词简介

6.2 结巴分词精讲

6.3 HanLP分词精讲

6.4 自定义去除停用词

6.5 词频统计

6.6 自定义去高低词频

6.7 自定义规则提取特征词

6.8 实战案例:新闻文本分词处理

6.9 本章小结

第7章 文本特征向量化

7.1 解析数据文件

7.2 处理缺失值

7.3 数据的归一化处理

7.4 特征词转文本向量

7.5 词频-逆词频(TF-IDF)

7.6 词集模型与词袋模型

7.7 实战案例:新闻文本特征向量化

7.8 本章小结

第8章 Gensim文本向量化

8.1 Gensim的特性和核心概念

8.2 Gensim构建语料词典

8.3 Gensim统计词频特征

8.4 Gensim计算TF-IDF

8.5 Gensim实现主题模型

8.6 实战案例:Gensim实现新闻文本特征向量化

8.7 本章小结

第9章 PCA降维技术

9.1 什么是降维

9.2 PCA概述

9.3 PCA应用场景

9.4 PCA的算法实现

9.5 实战案例:PCA技术实现新闻文本特征降维

9.6 本章小结

第10章 数据可视化

10.1 Matplotlib概述

10.2 Matplotlib绘制折线图

10.3 Matplotlib绘制散点图

10.4 Matplotlib绘制直方图

10.5 练习:Matplotlib绘制气温图

10.6 练习:Matplotlib绘制三维图

10.7 本章小结

第11章 竞赛神器XGBoost

11.1 XGBoost概述

11.2 XGBoost的优点

11.3 使用XGBoost预测毒蘑菇

11.4 XGBoost优化调参

11.5 预测糖尿病患者

11.6 本章小结

第12章 XGBoost实现新闻文本分类

12.1 文本分类概述

12.2 文本分类的原理

12.3 分类模型评估

12.4 数据预处理

12.5 XGBoost分类器

12.6 新闻文本分类应用

12.7 本章小结

参考文献

累计评论(1条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部