1、认识Hadoop和Hbase
1.1 hadoop简单介绍
Hadoop是一个使用java编写的Apache开放源代码框架,它允许使用简单的编程模型跨大型计算机的大型数据集进行分布式处理。Hadoop框架工作的应用程序可以在跨计算机群集提供分布式存储和计算的环境中工作。Hadoop旨在从单一服务器扩展到数千台机器,每台机器都提供本地计算和存储。
1.2 Hadoop架构
Hadoop框架包括以下四个模块:
- Hadoop Common:这些是其他Hadoop模块所需的Java库和实用程序。这些库提供文件系统和操作系统级抽象,并包含启动Hadoop所需的必要Java文件和脚本。
- Hadoop YARN:这是作业调度和集群资源管理的框架。
- Hadoop分布式文件系统(HDFS):提供对应用程序数据的高吞吐量访问的分布式文件系统。
- Hadoop MapReduce: 这是基于YARN的大型数据集并行处理系统。
我们可以使用下图来描述Hadoop框架中可用的这四个组件。
自2012年以来,术语“Hadoop”通常不仅指向上述基本模块,而且还指向可以安装在Hadoop之上或之外的其他软件包,例如Apache Pig,Apache Hive,Apache HBase,Apache火花等
1.3 Hadoop如何工作?
(1)阶段1
用户/应用程序可以通过指定以下项目向Hadoop(hadoop作业客户端)提交所需的进程:
- 分布式文件系统中输入和输出文件的位置。
- java类以jar文件的形式包含了map和reduce功能的实现。
- 通过设置作业特定的不同参数来进行作业配置。
(2)阶段2
然后,Hadoop作业客户端将作业(jar /可执行文件等)和配置提交给JobTracker,JobTracker负责将软件/配置分发到从站,调度任务和监视它们,向作业客户端提供状态和诊断信息。
(3)阶段3
不同节点上的TaskTrackers根据MapReduce实现执行任务,并将reduce函数的输出存储到文件系统的输出文件中。
1.4 Hadoop的优点
- Hadoop框架允许用户快速编写和测试分布式系统。它是高效的,它自动分配数据并在机器上工作,反过来利用CPU核心的底层并行性。
- Hadoop不依赖硬件提供容错和高可用性(FTHA),而是Hadoop库本身被设计为检测和处理应用层的故障。
- 服务器可以动态添加或从集群中删除,Hadoop继续运行而不会中断。
- Hadoop的另一大优点是,除了是开放源码,它是所有平台兼容的,因为它是基于Java的。
1.5 HBase介绍
Hbase全称为Hadoop Database,即hbase是hadoop的数据库,是一个分布式的存储系统。Hbase利用Hadoop的HDFS作为其文件存储系统,利用Hadoop的MapReduce来处理Hbase中的海量数据。利用zookeeper作为其协调工具。
1.6 HBase体系架构
Client
- 包含访问HBase的接口并维护cache来加快对HBase的访问
Zookeeper
- 保证任何时候,集群中只有一个master
- 存贮所有Region的寻址入口。
- 实时监控Region server的上线和下线信息。并实时通知Master
- 存储HBase的schema和table元数据
Master
- 为Region server分配region
- 负责Region server的负载均衡
- 发现失效的Region server并重新分配其上的region
- 管理用户对table的增删改操作
RegionServer
- Region server维护region,处理对这些region的IO请求
- Region server负责切分在运行过程中变得过大的region
HLog(WAL log)
- HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是 HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和 region名字外,同时还包括sequence number和timestamp,timestamp是” 写入时间”,sequence number的起始值为0,或者是最近一次存入文件系 统中sequence number。
- HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的 KeyValue
Region
- HBase自动把表水平划分成多个区域(region),每个region会保存一个表 里面某段连续的数据;每个表一开始只有一个region,随着数据不断插 入表,region不断增大,当增大到一个阀值的时候,region就会等分会 两个新的region(裂变);
- 当table中的行不断增多,就会有越来越多的region。这样一张完整的表 被保存在多个Regionserver上。
Memstore 与 storefile
- 一个region由多个store组成,一个store对应一个CF(列族)
- store包括位于内存中的memstore和位于磁盘的storefile写操作先写入 memstore,当memstore中的数据达到某个阈值,hregionserver会启动 flashcache进程写入storefile,每次写入形成单独的一个storefile
- 当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、 major compaction),在合并过程中会进行版本合并和删除工作 (majar),形成更大的storefile。
- 当一个region所有storefile的大小和超过一定阈值后,会把当前的region 分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡。
- 客户端检索数据,先在memstore找,找不到再找storefile
- HRegion是HBase中分布式存储和负载均衡的最小单元。最小单元就表 示不同的HRegion可以分布在不同的HRegion server上。
- HRegion由一个或者多个Store组成,每个store保存一个columns family。
- 每个Strore又由一个memStore和0至多个StoreFile组成。
2、安装搭建hadoop
2.1 配置说明
本次集群搭建共三台机器,具体说明下:
主机名 | IP | 说明 |
hadoop01 | 192.168.10.101 | DataNode、NodeManager、ResourceManager、NameNode |
hadoop02 | 192.168.10.102 | DataNode、NodeManager、SecondaryNameNode |
hadoop03 | 192.168.10.106 | DataNode、NodeManager |
2.2 安装前准备
2.2.1 机器配置说明
1 2 3 4 |
|
注:本集群内所有进程均由clsn用户启动;要在集群所有服务器都进行操作。
2.2.2 关闭selinux、防火墙
1 2 3 4 5 6 7 8 |
|
2.2.3 准备用户
1 2 |
|
2.2.4 修改hosts文件,域名解析
1 2 3 4 5 6 7 |
|
2.2.5 同步时间
1 2 |
|
2.2.6 ssh互信配置
(1)生成密钥对,一直回车即可
1 |
|
(2)保证每台服务器各自都有对方的公钥
1 2 3 4 5 6 7 8 9 10 |
|
注:要在集群所有服务器都进行操作
(3)验证无秘钥认证登录
1 2 3 |
|
2.3 配置jdk
在三台机器上都需要操作
1 2 3 4 5 6 7 8 9 10 11 |
|
2.4 安装hadoop
1 2 3 4 |
|
3、配置启动hadoop
3.1 hadoop-env.sh 配置hadoop环境变量
1 2 3 4 5 |
|
3.2 core-site.xml 配置HDFS
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
|
3.3 hdfs-site.xml 配置namenode
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 |
|
3.4 mapred-site.xml 配置框架
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
|
3.5 yarn-site.xml 配置resourcemanager
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 |
|
3.6 配置masters & slaves
1 2 |
|
3.7 启动前准备
3.7.1 准备启动脚本
启动脚本文件全部位于 /usr/local/hadoop/sbin 文件夹下:
(1)修改 start-dfs.sh stop-dfs.sh 文件添加:
1 2 3 4 5 6 |
|
(2)修改start-yarn.sh 和 stop-yarn.sh文件添加:
1 2 3 4 5 |
|
3.7.2 授权
1 2 |
|
3.7.3 配置hadoop命令环境变量
1 2 3 4 |
|
3.7.4 集群初始化
1 2 3 4 5 6 7 8 9 10 11 12 13 |
|
3.8 启动hadoop集群
3.8.1 第一次启动前需要格式化,集群所有服务器都需要;
1 2 3 4 5 6 7 8 9 10 11 12 13 |
|
3.8.2 启动并验证集群
(1)启动namenode、datanode
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
|
(2)启动YARN
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
|
3.9 集群启动成功
(1)网页访问:http://hadoop01:8088
该页面为ResourceManager 管理界面,在上面可以看到集群中的三台Active Nodes。
(2)网页访问:http://hadoop01:50070/dfshealth.html#tab-datanode
该页面为NameNode管理页面
到此hadoop集群已经搭建完毕!!!
4、安装配置Hbase
4.1 安装Hbase
1 2 3 4 |
|
注:当前时间2018.03.08,hbase-2.1版本有问题;也可能是我配置的问题,hbase会启动失败;所以,我降级到了hbase-1.4.9版本。
4.2 配置Hbase
4.2.1 hbase-env.sh 配置hbase环境变量
1 2 3 4 |
|
4.2.2 hbase-site.xml 配置hbase
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 |
|
注:zookeeper有这样一个特性:
- 集群中只要有过半的机器是正常工作的,那么整个集群对外就是可用的。
- 也就是说如果有2个zookeeper,那么只要有1个死了zookeeper就不能用了,因为1没有过半,所以2个zookeeper的死亡容忍度为0;
- 同理,要是有3个zookeeper,一个死了,还剩下2个正常的,过半了,所以3个zookeeper的容忍度为1;
- 再多列举几个:2->0 ; 3->1 ; 4->1 ; 5->2 ; 6->2 会发现一个规律,2n和2n-1的容忍度是一样的,都是n-1,所以为了更加高效,何必增加那一个不必要的zookeeper
4.2.3 指定集群节点
1 2 3 4 |
|
5、启动Hbase集群
5.1 配置hbase命令环境变量
1 2 3 |
|
5.2 启动前准备
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
|
5.3 启动hbase
注:只需在hadoop01服务器上操作即可。
(1)启动
1 2 3 4 5 |
|
(2)验证
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
|
5.4 页面查看hbase状态
6、简单操作Hbase
6.1 hbase shell基本操作命令
名称 |
命令表达式 |
创建表 |
create ‘表名称‘,‘列簇名称1‘,‘列簇名称2‘....... |
添加记录 |
put ‘表名称‘, ‘行名称‘,‘列簇名称:‘,‘值‘ |
查看记录 |
get ‘表名称‘,‘行名称‘ |
查看表中的记录总数 |
count ‘表名称‘ |
删除记录 |
delete ‘表名‘,行名称‘,‘列簇名称‘ |
删除表 |
①disable ‘表名称‘ ②drop ‘表名称‘ |
查看所有记录 |
scan ‘表名称‘ |
查看某个表某个列中所有数据 |
scan ‘表名称‘,[‘列簇名称:‘] |
更新记录 |
即重写一遍进行覆盖 |
6.2 一般操作
(1)启动hbase 客户端
1 2 3 4 5 6 7 8 9 10 11 12 |
|
(2)查询集群状态
1 2 |
|
(3)查询hive版本
1 2 |
|
6.3 DDL操作
(1)创建一个demo表,包含 id和info 两个列簇
1 2 3 4 |
|
(2)获得表的描述
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
|
(3)删除一个列簇
注:任何删除操作,都需要先disable表
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
|
(4)删除一个表
要先disable表,再drop
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
|
6.4 DML操作
(1)插入数据
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
|
(2)获取demo表的数据
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 |
|
(3)更新一条记录
1 2 3 4 5 6 7 |
|
(4)获取时间戳数据
大家应该看到timestamp这个标记
1 2 3 4 5 6 7 8 9 |
|
(5)全表显示
1 2 3 4 5 6 7 8 9 10 |
|
(6)删除id为example的‘id:age‘字段
1 2 3 4 5 6 7 8 |
|
(7)删除整行
1 2 3 4 5 6 |
|
(8)给example这个id增加‘id:age‘字段,并使用counter实现递增
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
|
(9)清空整个表
1 2 3 4 5 |
|
可以看出hbase是先disable掉该表,然后drop,最后重新create该表来实现清空该表。
原文地址:https://www.cnblogs.com/dengbingbing/p/12200281.html