大数据学习系列之—HBASE

  1. hadoop生态系统

zookeeper负责协调 hbase必须依赖zookeeper

flume 日志工具

sqoop 负责 hdfs dbms 数据转换 数据到关系型数据库转换

大数据学习群119599574

  1. hbase简介

hadoop database

  • 是一个高可靠性、高性能、面向列、可伸缩、实时读写的分布式数据库
  • 利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce 来处理Hbase中的海量数据,利用Zookeeper作为其分布式系统服务
  • 主要用来存储非结构化和半结构化的松散数据(列存NoSql数据库)

hbase数据模型

ROW KEY

  1. 决定一行数据
  2. 按照字段顺序排序
  3. Row key只能存储64k的字节数据

Column Family列族 &qualifier列

  • Hbase表中的每个列都归属于某个列族,列族必须作为表模式定义的一部分给出 如create ‘test‘;
  • 列名以列族作为前缀,每个“列族”都可以y9uo多个列成员column,如test:testfirst,新的列成员可以随后按需、动态加入;
  • 权限控制,存储以及调优都是列族层面进行的
  • Hbase把同一列族里面的数据存储在同一目录下,由几个文件保存

Timestamp 时间戳

  • 在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。
  • 时间戳的类型是 64位整型。
  • 时间戳可以由HBase(在数据写入时自动)赋值,此时时间戳是精确到毫秒的当前系统时间。
  • 时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。

cell 单元格

  1. 由行和列的坐标交叉决定;
  2. 单元格是有版本的;
  3. 单元格的内容是未解析的字节数组;
  • 由{row key, column( =<family> +<qualifier>), version} 唯一确定的单元。
  • cell中的数据是没有类型的,全部是字节码形式存贮。

HLog(wal log)

  • HLog文件就是一个普通的Hadoop Sequence File,Sequence File 的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和region名字外,同时还包括 sequence number和timestamp,timestamp是” 写入时间”,sequence number的起始值为0,或者是最近一次存入文件系统中sequence number。
  • HLog SequeceFile的Value是HBase的KeyValue对象,即对应HFile中的KeyValue。

HBase 架构

client

  1. 包含访问HBase的接口并维护cache来加快对HBase的访问

zookeeper

  1. 保证任何时候,集群中只有一个master
  2. 存储所有Region的寻址入口
  3. 实时监控Region server的上线和下线信息。并实时通知master
  4. 存储Hbase的 schema 和table元数据

Master

  1. 为Region server 分配region
  2. 负责Region server的负载均衡
  3. 发现失效的Region server并重新分配骑上的region
  4. 管理用户对table的增删改操作

RegionServer

  1. Region server维护region,处理对这些region的IO请求
  2. Region server负责切分在运行过程中变得过大的region

Region

  1. Hbase自动把表水平划分成多个区域(region),每个region会保存一个表里面某段连续的数据
  2. 每个表开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阈值时,region就会分为两个新的region(裂变)
  3. 当table中的行不断增多,就会有越来越多的region。这样一张完整的表保存在多个regionServer上。

    大数据学习群119599574

Memstore与storefile

  1. 一个region由多个store组成,一个store对应一个列族(cf)
  2. store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcacher进程写入storefile,每次写入形成单独的一个storefile
  3. 当storefile文件的数量增长到一定阈值后,系统会进程合并 (minor、major compaction),在合并过程中会进行版本合并和删除工作major形成更大的storefile
  4. 当一个region所有storefile的大小和数量超过一定阈值后,会把当前的regjion分割为两个,并由hmaster分配到相应的regionserver服务器,达到负载均衡
  5. 客户端检索数据,现在memstore找,找不到再找storefile

HRegion

  1. Hregion是HBase中分布式存储和负载均衡的最小单元。最小单元就表示不同的HRegion可以分布在不通的HRegion server上
  2. HRegion 由一个或者多个Store组成,每个store保存一个column family
  3. 每个Store又由一个memStore和0至多个StoreFile组成。 StoreFIle 以HFILe格式保存于HDFS上。

原文地址:https://www.cnblogs.com/Aa123456780/p/9736656.html

时间: 2024-10-14 05:14:45

大数据学习系列之—HBASE的相关文章

大数据学习系列之三 ----- HBase Java Api 图文详解

引言 在上一篇中大数据学习系列之二 ----- HBase环境搭建(单机) 中,成功搭建了Hadoop+HBase的环境,本文则主要讲述使用Java 对HBase的一些操作. 一.事前准备 1.确认hadoop和hbase成功启动 2.确认防火墙是否关闭 3.maven所需要的依赖架包 <!--hadoop 相关架包 --> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>

大数据学习系列之五 ----- Hive整合HBase图文详解

引言 在上一篇 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机) 和之前的大数据学习系列之二 ----- HBase环境搭建(单机) 中成功搭建了Hive和HBase的环境,并进行了相应的测试.本文主要讲的是如何将Hive和HBase进行整合. Hive和HBase的通信意图 Hive与HBase整合的实现是利用两者本身对外的API接口互相通信来完成的,其具体工作交由Hive的lib目录中的hive-hbase-handler-*.jar工具类来实现,通信原理如下图

大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单机的搭建,是因为作为个人学习的话,单机已足以,好吧,说实话是自己的电脑不行,使用虚拟机实在太卡了... 整个的集群搭建是在公司的测试服务搭建的,在搭建的时候遇到各种各样的坑,当然也收获颇多.在成功搭建大数据集群之后,零零散散的做了写笔记,然后重新将这些笔记整理了下来.于是就有了本篇博文. 其实我在搭

大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集

引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单机的搭建,是因为作为个人学习的话,单机已足以,好吧,说实话是自己的电脑不行,使用虚拟机实在太卡了... 整个的集群搭建是在公司的测试服务搭建的,在搭建的时候遇到各种各样的坑,当然也收获颇多.在成功搭建大数据集群之后,零零散散的做了写笔记,然后重新将这些笔记整理了下来.于是就有了本篇博文. 其实我在搭

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用介绍.本文主要讲解如何搭建Hadoop+Hive的环境. 一.环境准备 1,服务器选择 本地虚拟机 操作系统:linux CentOS 7 Cpu:2核 内存:2G 硬盘:40G 说明:因为使用阿里云服务器每次都要重新配置,而且还要考虑网络传输问题,于是自己在本地便搭建了一个虚拟机,方便文件的传输以

大数据学习系列之六 ----- Hadoop+Spark环境搭建

引言 在上一篇中 大数据学习系列之五 ----- Hive整合HBase图文详解 : http://www.panchengming.com/2017/12/18/pancm62/ 中使用Hive整合HBase,并且测试成功了.在之前的大数据学习系列之一 ----- Hadoop环境搭建(单机) : http://www.panchengming.com/2017/11/26/pancm55/ 中成功的搭建了Hadoop的环境,本文主要讲的是Hadoop+Spark 的环境.虽然搭建的是单机版,

大数据学习系列之二 ----- HBase环境搭建(单机)

引言 在上一篇中搭建了Hadoop的单机环境,这一篇则搭建HBase的单机环境 环境准备 1,服务器选择 阿里云服务器:入门型(按量付费) 操作系统:linux CentOS 6.8 Cpu:1核 内存:1G 硬盘:40G 2,配置选择 JDK:1.8 (jdk-8u144-linux-x64.tar.gz) Hadoop:2.8.2 (hadoop-2.8.2.tar.gz) HBase:1.6.2 (hbase-1.2.6-bin.tar.gz) 3,下载地址 官网地址: JDK: http

大数据学习系列(5)-- 局域网yum仓库搭建

https://www.cnblogs.com/nulige/p/6081192.html 原文地址:https://www.cnblogs.com/tianboblog/p/8182134.html

好程序员大数据学习路线分享Scala系列之集合操作函数

好程序员大数据学习路线继续为大家分享Scala系列之集合操作函数4.6 集合的重要函数4.6.1sum/max/min/count在序列中查找最大或最小值是一个极常见的需求,如下:val numbers = Seq(11, 2, 5, 1, 6, 3, 9) numbers.max //11 numbers.min //1 更高级的例子,其中包含一个书的序列case class Book(title: String, pages: Int) val books = Seq( Book("Futu