HBase介绍
1、关系型数据库与非关系型数据库
(1)关系型数据库
? 关系型数据库最典型的数据机构是表,由二维表及其之间的联系所组成的一个数据组织
? 优点:
? 1、易于维护:都是使用表结构,格式一致
? 2、使用方便:SQL语言通用,可用于复杂查询
? 3、复杂操作:支持SQL,可用于一个表以及多个表之间非常复杂的查询
? 缺点:
? 1、读写性能比较差,尤其是海量数据的高效率读写
? 2、固定的表结构,灵活度稍欠
? 3、高并发读写需求,传统关系型数据库,硬盘IO是一个很大的瓶颈
(2)非关系型数据库
? 非关系型数据库严格上不是一种数据库,应该是一种数据结构化存储方法的集合,可以是文档或键值对
? 优点:
? 1、格式灵活:存储数据的格式可以是key,value形式、文档形式、图片形式等等,文档形式、图片 形式等等,使用灵活,应用场景广泛,而关系型数据库则只支持基础类型。
? 2、速度快:nosql可以使用硬盘或者随机存储器作为载体,而关系型数据库只能使用硬盘
? 3、高扩展性
? 4、成本低:nosql数据库部署简单,基本都是开源软件
? 缺点:
? 1、不提供sql支持,学习和使用成本较高;
? 2、无事务处理
? 3、数据结构相对复杂,复杂查询方面稍欠
2、HBase简介
Use Apache HBase? when you need random, realtime read/write access to your Big Data. This project's goal is the hosting of very large tables -- billions of rows X millions of columns -- atop clusters of commodity hardware. Apache HBase is an open-source, distributed, versioned, non-relational database modeled after Google's Bigtable: A Distributed Storage System for Structured Data by Chang et al. Just as Bigtable leverages the distributed data storage provided by the Google File System, Apache HBase provides Bigtable-like capabilities on top of Hadoop and HDFS.
? HBase的全称是Hadoop Database,是一个高可靠性,高性能、面向列、可伸缩、实时读写的分布式数据库。
? 利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为其分布式协同服务。
? 主要用来存储非结构化和半结构化数据的松散数据(列存NoSQL数据库)。
? 注意:NoSQL的全称是Not Only SQL,泛指非关系型数据库。
3、HBase数据模型
(1)rowkey
? (1)决定一行数据,每行记录的唯一标识
? (2)按照字典序排序
? (3)RowKey只能存储64K的字节数据
(2)Column Family & Qualifier
? (1)HBase表中的每个列都归属于某个列族,列族必须作为表模式(schema)定义的一部分预先给出。如 create ‘test’, ‘course’;
? (2)列名以列族作为前缀,每个“列族”都可以有多个列成员(column);如course:math, course:english, 新的列族成员(列)可以随后按需、动态加入;
? (3)权限控制、存储以及调优都是在列族层面进行的;
? (4)HBase把同一列族里面的数据存储在同一目录下,由几个文件保存。
(3)TimeStamp时间戳
? (1)在HBase每个cell存储单元对同一份数据有多个版本,根据唯一的时间戳来区分每个版本之间的差异,不同版本的数据按照时间倒序排序,最新的数据版本排在最前面。
? (2)时间戳的类型是 64位整型。
? (3)时间戳可以由HBase(在数据写入时自动)赋值,此时间戳是精确到毫秒的当前系统时间。
? (4)时间戳也可以由客户显式赋值,如果应用程序要避免数据版本冲突,就必须自己生成具有唯一性的时间戳。
(4)Cell
? (1)由行和列的坐标交叉决定;
? (2)单元格是有版本的;
? (3)单元格的内容是未解析的字节数组;
? 1、由{row key, column( = +), version} 唯一确定的单元。
? 2、cell中的数据是没有类型的,全部是字节数组形式存贮。
4、HBase架构
角色介绍:
(1)Client
? 1、包含访问HBase的接口并维护cache来加快对HBase的访问。
(2)Zookeeper
? 1、保证任何时候,集群中只有一个活跃master
? 2、存储所有region的寻址入口
? 3、实时监控region server的上线和下线信息,并实时通知master
? 4、存储HBase的schema和table元数据
(3)Master
? 1、为region server分配region
? 2、负责region server的负载均衡
? 3、发现失效的region server并重新分配其上的region
? 4、管理用户对table的增删改操作
(4)RegionServer
? 1、region server维护region,处理对这些region的IO请求
? 2、region server负责切分在运行过程中变得过大的region
regionserver组件介绍
(1)region
? 1、HBase自动把表水平划分成多个区域(region),每个region会保存一个表里某段连续的数据
? 2、每个表一开始只有一个region,随着数据不断插入表,region不断增大,当增大到一个阈值的时候,region就会等分会两个新的region(裂变)
? 3、当table中的行不断增多,就会有越来越多的region。这样一张完整的表被保存在多个Regionserver 上。
(2)Memstore与storefile
? 1、一个region由多个store组成,一个store对应一个CF(列族)
? 2、store包括位于内存中的memstore和位于磁盘的storefile写操作先写入memstore,当memstore中的数据达到某个阈值,hregionserver会启动flashcache进程写入storefile,每次写入形成单独的一个storefile
? 3、当storefile文件的数量增长到一定阈值后,系统会进行合并(minor、major ),在合并过程中会进行版本合并和删除工作(majar),形成更大的storefile
? 4、当一个region所有storefile的大小和数量超过一定阈值后,会把当前的region分割为两个,并由hmaster分配到相应的regionserver服务器,实现负载均衡
? 5、客户端检索数据,先在memstore找,找不到去blockcache,找不到再找storefile
注意问题:
? 1、HRegion是HBase中分布式存储和负载均衡的最小单元。最小单元就表示不同的HRegion可以分布在不同的 HRegion server上。
? 2、HRegion由一个或者多个Store组成,每个store保存一个columns family。
? 3、每个Strore又由一个memStore和0至多个StoreFile组成。如图:StoreFile以HFile格式保存在HDFS上。
?
5、HBase读写流程
(1)读流程
? 1、客户端从zookeeper中获取meta表所在的regionserver节点信息
? 2、客户端访问meta表所在的regionserver节点,获取到region所在的regionserver信息
? 3、客户端访问具体的region所在的regionserver,找到对应的region及store
? 4、首先从memstore中读取数据,如果读取到了那么直接将数据返回,如果没有,则去blockcache读取数据
? 5、如果blockcache中读取到数据,则直接返回数据给客户端,如果读取不到,则遍历storefile文件,查找数据
? 6、如果从storefile中读取不到数据,则返回客户端为空,如果读取到数据,那么需要将数据先缓存到blockcache中(方便下一次读取),然后再将数据返回给客户端。
? 7、blockcache是内存空间,如果缓存的数据比较多,满了之后会采用LRU策略,将比较老的数据进行删除。
(2)写流程
? 1、客户端从zookeeper中获取meta表所在的regionserver节点信息
? 2、客户端访问meta表所在的regionserver节点,获取到region所在的regionserver信息
? 3、客户端访问具体的region所在的regionserver,找到对应的region及store
? 4、开始写数据,写数据的时候会先想hlog中写一份数据(方便memstore中数据丢失后能够根据hlog恢复数据,向hlog中写数据的时候也是优先写入内存,后台会有一个线程定期异步刷写数据到hdfs,如果hlog的数据也写入失败,那么数据就会发生丢失)
? 5、hlog写数据完成之后,会先将数据写入到memstore,memstore默认大小是64M,当memstore满了之后会进行统一的溢写操作,将memstore中的数据持久化到hdfs中,
? 6、频繁的溢写会导致产生很多的小文件,因此会进行文件的合并,文件在合并的时候有两种方式,minor和major,minor表示小范围文件的合并,major表示将所有的storefile文件都合并成一个,具体详细的过程,后续会讲解。
原文地址:https://www.cnblogs.com/littlepage/p/11293824.html