万本电子书0元读

万本电子书0元读

顶部广告

Hadoop大数据技术开发实战电子书

本书深浅出地介绍了Hadoop及其周边框架,涵盖了当前整个Hadoop生态系统主流的大数据技术。内容包括:HDFS、MapReduce、YARN、ZooKeeper、HBase、Hive、Sqoop和数据实时处理系统Flume、Kafka、Storm、Spark以及分布式搜索系统Elasticsearch等的基础知识、架构原理、集群环境搭建,同时介绍了常用Shell命令、API操作、源码剖析,并通过实际案例加深读者对各个框架的理解和应用。 通过阅读本书,读者能够对大数据相关框架迅速理解并掌握,即使没有任何大数据基础也可以对照书中的步骤成功地搭建属于自己的大数据集群,使用Hadoop集成环境行发、调试和运行程序,构建自己的大数据应用。

售       价:¥

纸质售价:¥74.80购买纸书

311人正在读 | 1人评论 6.2

作       者:张伟洋

出  版  社:清华大学出版社

出版时间:2019-10-01

字       数:25.2万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(1条)
  • 读书简介
  • 目录
  • 累计评论(1条)
本书以Hadoop及其周边框架为主线,介绍了整个Hadoop生态系统主流的大数据发技术。全书共16章,第1章讲解了VMware中CentOS 7操作系统的安装;第2章讲解了大数据发之前对操作系统集群环境的配置;第3~16章讲解了Hadoop生态系统各框架HDFS、MapReduce、YARN、ZooKeeper、HBase、Hive、Sqoop和数据实时处理系统Flume、Kafka、Storm、Spark以及分布式搜索系统Elasticsearch等的基础知识、架构原理、集群环境搭建,同时包括常用的Shell命令、API操作、源码剖析,并通过实际案例加深对各个框架的理解与应用。通过阅读本书,读者即使没有任何大数据基础,也可以对照书中的步骤成功搭建属于自己的大数据集群并独立完成项目发。 本书可作为Hadoop新手门的指导书,也可作为大数据发人员的随身手册以及大数据从业者的参考用书。<br/>【推荐语】<br/>本书深浅出地介绍了Hadoop及其周边框架,涵盖了当前整个Hadoop生态系统主流的大数据技术。内容包括:HDFS、MapReduce、YARN、ZooKeeper、HBase、Hive、Sqoop和数据实时处理系统Flume、Kafka、Storm、Spark以及分布式搜索系统Elasticsearch等的基础知识、架构原理、集群环境搭建,同时介绍了常用Shell命令、API操作、源码剖析,并通过实际案例加深读者对各个框架的理解和应用。 通过阅读本书,读者能够对大数据相关框架迅速理解并掌握,即使没有任何大数据基础也可以对照书中的步骤成功地搭建属于自己的大数据集群,使用Hadoop集成环境行发、调试和运行程序,构建自己的大数据应用。 本书内容涉及面广,步骤讲解清晰,代码可读性强。全书以实操为主,理论为辅,适合欲快速掌握大数据发技术的初学者,亦适合转型大数据发的程序员和相关专业的在校学生阅读。<br/>【作者】<br/>张伟洋,毕业于中国地质大学计算机科学与技术专业,先后就职于知名互联网公司百度、慧聪网,任Java高级软件工程师,互联网旅游公司任软件研发事业部技术经理。目前供职于青岛英谷教育科技股份有限公司,任大数据项目讲师,为数十所高校先后举行多次大数据专题讲座,对Hadoop及周边框架ZooKeeper、Hive、HBase、Storm、Spark等有深的研究。高等院校云计算与大数据专业课改教材《云计算与大数据概论》《大数据发与应用》的主要编写者,百度文库、百度阅读签约作者。<br/>
目录展开

作/者/简/介

图/书/推/荐

内容简介

前言

第1章 VMware中安装CentOS 7

1.1 下载CentOS 7镜像文件

1.2 新建虚拟机

1.3 安装操作系统

第2章 CentOS 7集群环境配置

2.1 系统环境配置

2.2 安装JDK

2.3 克隆虚拟机

2.4 配置主机IP映射

第3章 Hadoop

3.1 Hadoop简介

3.2 YARN基本架构及组件

3.3 YARN工作流程

3.4 配置集群各节点SSH无密钥登录

3.4.2 无密钥登录操作步骤

3.5 搭建Hadoop 2.x分布式集群

第4章 HDFS

4.1 HDFS简介

4.2 HDFS命令行操作

4.3 HDFS Web界面操作

4.4 HDFS Java API操作

4.4.1 读取数据

第5章 MapReduce

5.1 MapReduce简介

5.2 MapReduce程序编写步骤

5.3 案例分析:单词计数

5.4 案例分析:数据去重

5.5 案例分析:求平均分

5.6 案例分析:二次排序

5.7 使用MRUnit测试MapReduce程序

第6章 ZooKeeper

6.1 ZooKeeper简介

6.2 ZooKeeper安装配置

6.3 ZooKeeper命令行操作

6.4 ZooKeeper Java API操作

6.5 案例分析:监听服务器动态上下线

第7章 HDFS与YARNHA

7.1 HDFS HA搭建

7.2 YARN HA搭建

第8章 HBase

8.1 什么是HBase

8.2 HBase基本结构

8.3 HBase数据模型

8.4 HBase集群架构

8.5 HBase安装配置

8.6 HBase Shell命令操作

8.7 HBase Java API操作

8.9 案例分析:HBase MapReduce数据转移

8.10 案例分析:HBase数据备份与恢复

第9章 Hive

9.1 什么是Hive

9.2 Hive架构体系

9.3 Hive三种运行模式

9.4 Hive安装配置

9.5 Hive常见属性配置

9.6 Beeline CLI的使用

9.8 Hive表操作

9.9 Hive查询

9.10 其他Hive命令

9.11 Hive元数据表结构分析

9.12 Hive自定义函数

9.13 Hive JDBC操作

9.14 案例分析:Hive与HBase整合

9.15 案例分析:Hive分析搜狗用户搜索日志

第10章 Sqoop

10.1 什么是Sqoop

10.2 使用Sqoop

10.3 数据导入工具

10.4 数据导出工具

10.5 Sqoop安装与配置

10.6 案例分析:将MySQL表数据导入到HDFS中

10.7 案例分析:将HDFS中的数据导出到MySQL中

10.8 案例分析:将MySQL表数据导入到HBase中

第11章 Kafka

11.1 什么是Kafka

11.2 Kafka架构

11.3 主题与分区

11.4 分区副本

11.5 消费者组

11.6 数据存储机制

11.7 集群环境搭建

11.8 命令行操作

11.8.2 查询主题

11.9 Java API操作

11.10 案例分析:Kafka生产者拦截器

第12章 Flume

12.1 什么是Flume

12.2 架构原理

12.3 安装与简单使用

12.4 案例分析:日志监控(一)

12.5 案例分析:日志监控(二)

12.6 拦 截 器

12.7 选 择 器

12.8 案例分析:拦截器和选择器的应用

12.9 案例分析:Flume与Kafka整合

第13章 Storm

13.1 什么是Storm

13.2 Storm Topology

13.3 Storm集群架构

13.4 Storm流分组

13.5 Storm集群环境搭建

13.6 案例分析:单词计数

13.7 案例分析:Storm与Kafka整合

第14章 Elasticsearch

14.1 什么是Elasticsearch

14.2 基本概念

14.3 集群架构

14.4 集群环境搭建

14.5 Kibana安装

14.6 REST API

14.7 Head插件安装

14.8 Java API操作:员工信息

第15章 Scala

15.1 什么是Scala

15.2 安装Scala

15.3 Scala基础

15.4 集 合

15.5 类和对象

15.6 抽象类和特质

15.7 使用Eclipse创建Scala项目

15.8 使用IntelliJ IDEA创建Scala项目

第16章 Spark

16.1 Spark概述

16.2 Spark主要组件

16.3 Spark运行时架构

16.4 Spark集群环境搭建

16.5 Spark HA搭建

16.6 Spark应用程序的提交

16.7 Spark Shell的使用

16.8 Spark RDD

16.9 案例分析:使用Spark RDD实现单词计数

16.10 Spark SQL

16.11 案例分析:使用Spark SQL实现单词计数

16.12 案例分析:Spark SQL与Hive整合

16.13 案例分析:Spark SQL读写MySQL

累计评论(1条) 1个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部