万本电子书0元读

万本电子书0元读

顶部广告

精通Python爬虫框架Scrapy电子书

Scrapy是一个源的Python爬虫框架,可以用来轻松提取从页面数据。Scrapy带有丰富的特性,可通过简单的编码或配置来访问,从而可以节省发人员数周的发时间,并高效地提取所需数据。Scrapy有一个高度活跃且迅速增长的社区,而且已经成为黑客、创业者和Web爬取专家的首 选框架。 本书讲解了Scrapy的基础知识,讨论了如何从任意源提取数据,如何清理数据,以及如何使用Python和第三方API行处理,以满足自身需求。本书还讲解了如何将爬取的数据高效地馈数据库、搜索引擎和流数据处理系统(比如Apache Spark)。在学习完本书后,你将对数据爬取胸有成竹,并将数据应用在自己的应用程序中。

售       价:¥

纸质售价:¥43.90购买纸书

3203人正在读 | 11人评论 7.4

作       者:(美)迪米特里奥斯 考奇斯-劳卡斯

出  版  社:人民邮电出版社

出版时间:2018-02-01

字       数:19.6万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
Scrapy是使用Python发的一个快速、高层次的屏幕抓取和Web抓取框架,用于抓Web站并从页面中提取结构化的数据。《精通Python爬虫框架Scrapy》以Scrapy 1.0版本为基础,讲解了Scrapy的基础知识,以及如何使用Python和三方API提取、整理数据,以满足自己的需求。 本书共11章,其内容涵盖了Scrapy基础知识,理解HTML和XPath,安装Scrapy并爬取一个网站,使用爬虫填充数据库并输出到移动应用中,爬虫的强大功能,将爬虫部署到Scrapinghub云服务器,Scrapy的配置与管理,Scrapy编程,管道秘诀,理解Scrapy性能,使用Scrapyd与实时分析行分布式爬取。本书附录还提供了各种软件的安装与故障排除等内容。 本书适合软件发人员、数据科学家,以及对自然语言处理和机器学习感兴趣的人阅读。<br/>【推荐语】<br/>Scrapy是一个源的Python爬虫框架,可以用来轻松提取从页面数据。Scrapy带有丰富的特性,可通过简单的编码或配置来访问,从而可以节省发人员数周的发时间,并高效地提取所需数据。Scrapy有一个高度活跃且迅速增长的社区,而且已经成为黑客、创业者和Web爬取专家的首 选框架。 本书讲解了Scrapy的基础知识,讨论了如何从任意源提取数据,如何清理数据,以及如何使用Python和第三方API行处理,以满足自身需求。本书还讲解了如何将爬取的数据高效地馈数据库、搜索引擎和流数据处理系统(比如Apache Spark)。在学习完本书后,你将对数据爬取胸有成竹,并将数据应用在自己的应用程序中。 本书内容: 使用HTML和Xpath提取所需的数据; 使用Python编写Scrapy爬虫,并在网络上行爬取操作; 将数据推送到任意数据库、搜搜引擎或分析系统的方法; 配置爬虫,使其下载文件和图形,以及使用代理; 创建用来限流数据的高效管道; 使用Twitsted实践驱动的API并发处理数百个Item; 让爬虫更快速,让内存使用率更高,以及对Scrapy性能行调优的技巧; 使用Scrapyd和Scrapinghub执行大规模分布式爬取操作的方法。<br/>【作者】<br/>Dimitrios Kouzis-Loukas作为一位软件发人员,已经拥有超过15年的经验。同时,他还使用自己掌握的知识和技能,向广大读者讲授如何编写软件。 他学习并掌握了多门学科,包括数学、物理学以及微电子学。他对这些学科的透彻理解,提高了自身的标准,而不只是“实用的解决方案”。他知道真正的解决方案应当是像物理学规律一样确定,像ECC内存一样健壮,像数学一样通用。 Dimitrios目前正在使用新的数据中心技术发低延迟、高可用的分布式系统。他是语言无关论者,不过对Python、C 和Java略有偏好。他对源软硬件有着坚定的信念,他希望他的贡献能够造福于各个社区和全人类。 关于译者 李斌,毕业于北京科技大学计算机科学与技术专业,获得硕士学位。曾任职于*,当前供职于凡普金科,负责应用安全工作。热爱Python编程和Web安全,希望以更加智能和自动化的方式提升网络安全。<br/>
目录展开

内容提要

关于作者

关于审稿人

前言

第1章 Scrapy简介

1.1 初识Scrapy

1.2 喜欢Scrapy的更多理由

1.3 关于本书:目标和用途

1.4 掌握自动化数据爬取的重要性

1.5 在充满爬虫的世界里做一个好公民

1.6 Scrapy不是什么

1.7 本章小结

第2章 理解HTML和XPath

2.1 HTML、DOM树表示以及XPath

2.2 使用XPath选择HTML元素

2.3 本章小结

第3章 爬虫基础

3.1 安装Scrapy

3.2 UR2IM——基本抓取流程

3.3 一个Scrapy项目

3.4 抽取更多的URL

3.5 本章小结

第4章 从Scrapy到移动应用

4.1 选择手机应用框架

4.2 创建数据库和集合

4.3 使用Scrapy填充数据库

4.4 创建手机应用

4.5 本章小结

第5章 迅速的爬虫技巧

5.1 需要登录的爬虫

5.2 使用JSON API和AJAX页面的爬虫

5.3 30倍速的房产爬虫

5.4 基于Excel文件爬取的爬虫

5.5 本章小结

第6章 部署到Scrapinghub

6.1 注册、登录及创建项目

6.2 部署爬虫与计划运行

6.3 访问item

6.4 计划定时爬取

6.5 本章小结

第7章 配置与管理

7.1 使用Scrapy设置

7.2 基本设置

7.3 进阶设置

7.4 本章小结

第8章 Scrapy编程

8.1 Scrapy是一个Twisted应用

8.2 Scrapy架构概述

8.3 示例1:非常简单的管道

8.4 信号

8.5 示例2:测量吞吐量和延时的扩展

8.6 中间件延伸

8.7 本章小结

第9章 管道秘诀

9.1 使用REST API

9.2 与标准Python客户端建立数据库接口

9.3 使用Twisted专用客户端建立服务接口

9.4 为CPU密集型、阻塞或遗留功能建立接口

9.5 本章小结

第10章 理解Scrapy性能

10.1 Scrapy引擎——一种直观方式

10.2 使用telnet获得组件利用率

10.3 基准系统

10.4 标准性能模型

10.5 解决性能问题

10.6 故障排除流程

10.7 本章小结

第11章 使用Scrapyd与实时分析进行分布式爬取

11.1 房产的标题是如何影响价格的

11.2 Scrapyd

11.3 分布式系统概述

11.4 爬虫和中间件的变化

11.5 创建自定义监控命令

11.6 使用Apache Spark流计算偏移量

11.7 运行分布式爬取

11.8 系统性能

11.9 关键要点

11.10 本章小结

附录A 必备软件的安装与故障排除

A.1 必备软件的安装

A.2 系统

A.3 安装概述

A.4 在Linux上安装

A.5 在Windows或Mac上安装

A.6 系统创建与操作FAQ

A.7 有一个无法解决的问题,怎么办

累计评论(0条) 2个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部