HBase简介及集群安装

一、Hbase概述
    Apache HBase?是Hadoop数据库,是一个分布式,可扩展的大数据存储。
    当您需要对大数据进行随机,实时读/写访问时,请使用Apache HBase?。该项目的目标是托
    管非常大的表 - 数十亿行X百万列 - 在商品硬件集群上。Apache HBase是一个开源的,分布式
    的,版本化的非关系数据库,模仿Google的Bigtable: Chang等人的结构化数据分布式存储系
    统。正如Bigtable利用Google文件系统提供的分布式数据存储一样,Apache HBase在Hadoop和
    HDFS之上提供类似Bigtable的功能。

    2006年-google发表了bigtable的白皮书
    2006年-开始开发hbase
    2008年-hbase正式成为apache的子项目
    2010年-正式成为apache的顶级项目
二、Hbase架构

三、Hbase集群安装部署
    集群配置:
        zk集群3台
        hadoop集群3台
        hbase集群3台

    1、上传hbase-1.3.0-bin.tar.gz到/root下

    2、解压
    cd ~
    tar -zxvf hbase-1.3.0-bin.tar.gz -C hd

    3、修改配置文件
    cd /root/hd/hbase-1.3.0/conf
    (1)hbase-env.sh--修改环境变量
    vi hbase-env.sh
    export JAVA_HOME=/root/hd/jdk1.8.0_144   # 修改java环境变量
    export HBASE_MANAGES_ZK=false    # 关闭hbase自带的Zookeeper集群,换成自己集群的Zookeeper集群

    (2)hbase-site.xml--加入配置信息(在<configuration>标签内)
    vi hbase-site.xml
    <!-- 设置namenode所在位置 通过rootdir设置 也就是设置hdfs中存放的路径 -->
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://hd09-1:9000/hbase</value>
    </property>

    <!-- 是否开启集群 -->
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>

    <!-- 0.98 后的新变动,之前版本没有.port,默认端口为 60000 -->
    <property>
        <name>hbase.master.port</name>
        <value>16000</value>
    </property>

    <!-- zookeeper集群的位置 -->
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>hd09-1:2181,hd09-2:2181,hd09-3:2181</value>
    </property>

    <!-- hbase的元数据信息存储在zookeeper的位置 -->
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/root/hd/zookeeper-3.4.10/zkData</value>
    </property>

    (3)regionservers--加入从节点
    vi regionservers
    hd09-1
    hd09-2
    hd09-3

    4、解决依赖问题
    (1)删除hbase自带的jar包
    cd /root/hd/hbase-1.3.0/lib
    rm -rf hadoop-*
    rm -rf zookeeper-3.4.6.jar

    (2)进入放置zookeeper和hadoop的依赖包的文件夹,通过
    cp ./* /root/hd/hbase-1.3.0/lib/
    把相关版本的zookeeper和hadoop的依赖包导入到hbase/lib下

    (3)软连接hadoop配置
    ln -s /root/hd/hadoop-2.8.4/etc/hadoop/core-site.xml /root/hd/hbase-1.3.0/conf/
    ln -s /root/hd/hadoop-2.8.4/etc/hadoop/hdfs-site.xml /root/hd/hbase-1.3.0/conf/

    5、分发hbase安装文件到其他节点
    cd /root/hd
    scp -r hbase-1.3.0/ hd09-2:/root/hd
    scp -r hbase-1.3.0/ hd09-3:/root/hd

    6、启动集群
    首先要启动hdfs集群,yarn集群和zookeeper集群(其中括号内的是启动命令所在的节点主机名,不包含在命令中)
    start-dfs.sh    (hd09-1)
    start-yarn.sh    (hd09-1)
    zkServer.sh start    (hd09-1,hd09-2,hd09-3)

    cd /root/hd/hbase-1.3.0
    bin/hbase-daemon.sh start master    (hd09-1)
    bin/hbase-daemon.sh start regionserver    (hd09-2,hd09-3)

    7、启动终端
    cd /root/hd/hbase-1.3.0
    bin/hbase shell

    8、ui界面
    http://hd09-1:16010/master-status

HBase架构

Hadoop和ZooKeeper依赖

原文地址:https://www.cnblogs.com/areyouready/p/10091069.html

时间: 2024-11-06 09:41:33

HBase简介及集群安装的相关文章

“挖掘机”升级路 一篇(03)--HBase集群安装中的收获

粗略算算,从上周五到这周二,折腾Hadoop已经三天了.这三天我是过得诚惶诚恐,作为一个学徒,老大虽然没有说啥,但是我恨不得立马完成这些基本的部署工作,感觉拖了好久好久.简单的总结一下,第一天折腾Hadoop单机和伪分布式的安装,第二天在折腾Hive的安装,以失败告终,第三天折腾HBase的集群安装,在主节点上安装成功. 也就来具体的谈谈今天的收获,今天的参考资料主要是这么两篇1.分布式实时日志系统(四) 环境搭建之centos 6.4下hbase 1.0.1 分布式集群搭建(我FQ看的,不知道

HBase集群安装过程中的问题集锦

1.HRegionServer启动不正常 在namenode上执行jps,则可看到hbase启动是否正常,进程如下: [[email protected] bin]# jps26341 HMaster26642 Jps7840 ResourceManager7524 NameNode7699 SecondaryNameNode 由上可见,hadoop启动正常.HBase少了一个进程,猜测应该是有个节点regionserver没有启动成功. 进入节点slave1 ,执行jps查看启动进程: [[e

HBase学习之路 (二)HBase集群安装

前提 1.HBase 依赖于 HDFS 做底层的数据存储 2.HBase 依赖于 MapReduce 做数据计算 3.HBase 依赖于 ZooKeeper 做服务协调 4.HBase源码是java编写的,安装需要依赖JDK 版本选择 打开官方的版本说明http://hbase.apache.org/1.2/book.html JDK的选择 Hadoop的选择 此处我们的hadoop版本用的的是2.7.5,HBase选择的版本是1.2.6 安装 1.zookeeper的安装 参考http://w

ElasticSearch笔记整理(二):CURL操作、ES插件、集群安装与核心概念

[TOC] CURL操作 CURL简介 curl是利用URL语法在命令行方式下工作的开源文件传输工具,使用curl可以简单实现常见的get/post请求.简单的认为是可以在命令行下面访问url的一个工具.在centos的默认库里面是有curl工具的,如果没有请yum安装即可. curl -X 指定http的请求方法 有HEAD GET POST PUT DELETE -d 指定要传输的数据 -H 指定http请求头信息 curl创建索引库 curl -XPUT http://<ip>:9200

CentOS7+Hadoop2.7.2(HA高可用+Federation联邦)+Hive1.2.1+Spark2.1.0 完全分布式集群安装

1       VM网络配置... 3 2       CentOS配置... 5 2.1             下载地址... 5 2.2             激活网卡... 5 2.3             SecureCRT. 5 2.4             修改主机名... 6 2.5             yum代理上网... 7 2.6             安装ifconfig. 8 2.7             wget安装与代理... 8 2.8       

kafka分布式消息队列介绍以及集群安装

简介 首先简单说下对kafka的理解: 1.kafka是一个分布式的消息缓存系统: 2.kafka集群中的服务器节点都被称作broker 3.kafka的客户端分为:一是producer(消息生产者)负责往消息队列中放入消息:另一类是consumer(消息消费者)负责从消息队列中取消息.客户端和服务器之间的通信采用tcp协议 4.kafka中不同业务系统的消息可以通过topic(主题)进行区分,也就是说一个主题就是一个消息队列,而且每一个消息topic都会被分区,以分担消息读写的负载 5.par

Hadoop2.6(NN/RM)高可用集群安装与部署

Hadoop2对HDFS的改进很大,支持HDFS(NameNode) 和ResourceManager高可用性,避免集群中单点故障造成整个集群不可用.那么,从本文开始将部署一套高可用Hadoop集群及家族中相关开源系统,具体根据下面规划来,本文只部署高可用Hadoop集群,后续很快更新其他软件部署. 一.部署前准备 1. 节点分配 HostName IP Hadoop HBase Zookeeper Hive HMaster0 192.168.18.215 NameNode HMaster /

基于Hadoop的数据分析综合管理平台之Hadoop、HBase完全分布式集群搭建

能够将热爱的技术应用于实际生活生产中,是做技术人员向往和乐之不疲的事. 现将前期手里面的一个项目做一个大致的总结,与大家一起分享.交流.进步.项目现在正在线上运行,项目名--基于Hadoop的数据分析综合管理平台. 项目流程整体比较清晰,爬取数据(txt文本)-->数据清洗-->文本模型训练-->文本分类-->热点话题发现-->报表"实时"展示,使用到的技术也是当今互联网公司常用的技术:Hadoop.Mahout.HBase.Spring Data Had

Hadoop多节点集群安装配置

目录: 1.集群部署介绍 1.1 Hadoop简介 1.2 环境说明 1.3 环境配置 1.4 所需软件 2.SSH无密码验证配置 2.1 SSH基本原理和用法 2.2 配置Master无密码登录所有Salve 3.Java环境安装 3.1 安装JDK 3.2 配置环境变量 3.3 验证安装成功 3.4 安装剩余机器 4.Hadoop集群安装 4.1 安装hadoop 4.2 配置hadoop 4.3 启动及验证 4.4 网页查看集群 5.常见问题FAQ   5.1 关于 Warning: $H