hbase总结(二)-hbase安装

本篇介绍两种HBase的安装方式:本地安装方式和伪分布式安装方式。

安装的前提条件是已经安装成功了hadoop,并且hadoop的版本号要和hbase的版本号相匹配。

我将要安装的hbase是hbase-0.94.11版本号,须要的hadoop是hadoop-1.2.1版本号。

hbase下载地址:http://mirror.bit.edu.cn/apache/hbase/hbase-0.94.11/

将下载的hbase-0.94.11解压到对应的文件夹,如/usr/hbase-0.94.11

将hbase-0.90.4重命名为hbase

mv hbase-0.94.11 hbase

首先须要将hbase下的bin文件夹加入到系统的path中,改动/etc/profile,加入例如以下的内容:

export  PATH=$PATH:/usr/hbase/bin

1.单机安装  改动hbase下的conf文件夹下的配置文件hbase-env.sh

首先,改动hbase-env.sh中的例如以下属性:

export JAVA_HOME=/usr/java/jdk1.6

export HBASE_MANAGES_ZK=true  //此配置信息,设置由hbase自己管理zookeeper,不须要单独的zookeeper。

2.伪分布式安装  改动hbase-0.90.4下的conf文件夹下的配置文件hbase-env.sh和hbase-site.xml

首先,改动hbase-env.sh中的例如以下属性:

export JAVA_HOME=/usr/java/jdk1.6 

export HBASE_CLASSPATH=/usr/hadoop/conf 

export HBASE_MANAGES_ZK=true

然后,改动hbase-site.xml文件

<configuration>
    <property>
      <name>hbase.rootdir</name>
     <value>hdfs://192.168.70.130:9000/hbase</value> >//此属性要依据自己的hadoop的配置信息进行对应的改动
    </property>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>

</configuration>

完毕以上操作,就能够正常启动Hbase了,启动顺序:先启动Hadoop——>再启动Hbase,关闭顺序:先关闭Hbase——>再关闭Hadoop。

首先启动hadoop,(假设hadoop已经正常启动能够不再启动,直接查看进程是否正确,假设进程不对,那么必须又一次调试hadoop确保hadoop正常执行后再启动hbase),这里还要让HDFS处于非安全模式:bin/hadoop dfsadmin -safemode leave

start-all.sh    //启动hadoop
jps                //查看进程

2564 SecondaryNameNode
2391 DataNode
2808 TaskTracker
2645 JobTracker
4581 Jps
2198 NameNode

启动hbase:

start-hbase.sh    

jps 查看:

2564 SecondaryNameNode
2391 DataNode
4767 HQuorumPeer
2808 TaskTracker
2645 JobTracker
5118 Jps
4998 HRegionServer
4821 HMaster
2198 NameNode

能够看到,HBase的相关进程已经启动了

hbase shell 

进入shell模式

HBase Shell; enter ‘help<RETURN>‘ for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 0.94.12, r1524863, Fri Sep 20 00:25:45 UTC 2013

hbase(main):001:0> 

通过:http://localhost:60010/master-status ,能够訪问HBase状态

停止hbase 假设在操作Hbase的过程中错误发生,能够通过hbase安装主文件夹下的logs子文件夹查看错误原因

先停止hbase

stop-hbase.sh

再停止hadoop

stop-all.sh

错误解决方法:

1.报错例如以下: localhost:  Exception in thread "main" org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol  org.apache.hadoop.hdfs.protocol.ClientProtocol version mismatch. (client = 42,  server
=  41) 所以假设遇到以上错误,就通过替换jar包解决。(一般使用新版本号的hadoop 和 hbase不会出现这样的错误)

替换Hbase中的jar包 须要用{HADOOP_HOME}下的hadoop-1.2.1-core.jar  替换掉{HBASE_HOME}/lib文件夹下的hadoop-1.2.1-append-r1056497.jar  。假设不替换jar文件Hbase启动时会由于hadoop和Hbase的client协议不一致而导致HMaster启动异常。

2.错误例如以下:

SLF4J: Class path contains multiple SLF4J bindings.

SLF4J: Found binding in [jar:file:/........../lib/slf4j-log4j12-1.5.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]

SLF4J: Found binding in [jar:file:/........../slf4j-log4j12-1.5.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]

SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.

:hadoop中lib里slf4j-api-1.4.3.jar、slf4j-log4j12-1.4.3.jar和hbase中lib里相应的这两个jar包版本号不一致导致冲突,把hbase里的替换成hadoop里的就能够了

3.有时候安装hbase全然分布式时会出现奇怪的问题,先去查下集群中各个server时间,是否相差太多,最好一致

NTP:集群的时钟要保证主要的一致。稍有不一致是能够容忍的,可是非常大的不一致会 造成奇怪的行为。 执行 NTP 或者其它什么东西来同步你的时间.

假设你查询的时候或者是遇到奇怪的故障,能够检查一下系统时间是否正确!

设置集群各个节点时钟:date -s “2012-02-13 14:00:00”

4.2014-10-09 14:11:53,824 WARN org.apache.hadoop.hbase.master.AssignmentManager: Failed assignment of -ROOT-,,0.70236052 to 127.0.0.1,60020,1412820297393, trying to assign
elsewhere instead; retry=0

org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed setting up proxy interface org.apache.hadoop.hbase.ipc.HRegionInterface to /127.0.0.1:60020 after attempts=1

at org.apache.hadoop.hbase.ipc.HBaseRPC.waitForProxy(HBaseRPC.java:242)

at org.apache.hadoop.hbase.client.HConnectionManager$HConnectionImplementation.getHRegionConnection(HConnectionManager.java:1278)

at org.apache.hadoop.hbase.client.HConnectionManager$HConnectionImplementation.getHRegionConnection(HConnectionManager.java:1235)

at org.apache.hadoop.hbase.client.HConnectionManager$HConnectionImplementation.getHRegionConnection(HConnectionManager.java:1222)

at org.apache.hadoop.hbase.master.ServerManager.getServerConnection(ServerManager.java:496)

at org.apache.hadoop.hbase.master.ServerManager.sendRegionOpen(ServerManager.java:429)

at org.apache.hadoop.hbase.master.AssignmentManager.assign(AssignmentManager.java:1592)

at org.apache.hadoop.hbase.master.AssignmentManager.assign(AssignmentManager.java:1329)

at org.apache.hadoop.hbase.master.AssignCallable.call(AssignCallable.java:44)

at java.util.concurrent.FutureTask$Sync.innerRun(FutureTask.java:303)

at java.util.concurrent.FutureTask.run(FutureTask.java:138)

at java.util.concurrent.ThreadPoolExecutor$Worker.runTask(ThreadPoolExecutor.java:895)

at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:918)

at java.lang.Thread.run(Thread.java:662)

Caused by: java.net.ConnectException: Connection refused

解决例如以下:

/etc/hosts里边配置出的问题

127.0.1.1 后边是相应的主机名

将127.0.1.1改为127.0.0.1,问题解决

时间: 2024-10-09 05:53:57

hbase总结(二)-hbase安装的相关文章

【转载】Hadoop 2.7.3 和Hbase 1.2.4安装教程

转载地址:http://blog.csdn.net/napoay/article/details/54136398 目录(?)[+] 一.机器环境 系统:MAC OS Hadoop:2.7.3 Hbase:1.2.4 JDK: 1.8.0_112 二.配置SSH免密码登录 第一步:打开terminal,进入根目录,运行命令: cd 1 1 第二步: 显示隐藏文件,这时还没有.ssh文件夹 ls –a 1 1 第三步:生成密钥 ssh-keygen -t rsa -P "" 1 1  第

HBase学习总结(1):HBase的下载与安装

(HBase是一种数据库:Hadoop数据库,它是一种NoSQL存储系统,专门设计用来高速随机读写大规模数据.本文介绍HBase的下载与安装的整个过程. ) 一.HBase的下载 1.登录HBase官网http://hbase.apache.org/,可看到如图1所看到的的页面: 图1 登录HBase官网的页面 2.点击图1中的红色小框中的"here".进入如图2所看到的的页面. 图2 下载链接 3.点击图2中的红色小框中的链接,进入如图3所看到的的下载页面. 图3 下载页面 点击文件

Hadoop集群中Hbase的介绍、安装、使用

导读 HBase – Hadoop Database,是一个高可靠性.高性能.面向列.可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群. 一.Hbase简介 HBase是Google Bigtable的开源实现,类似Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统:Google运行MapReduce来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce

详解HBase架构原理及安装部署步骤

一.什么是HBase HBase 是一个高可靠.高性能.面向列.可伸缩的分布式存储系统,利用Hbase技术可在廉价PC Server上搭建 大规模结构化存储集群. HBase 是Google Bigtable 的开源实现,与Google Bigtable 利用GFS作为其文件存储系统类似, HBase 利用Hadoop HDFS 作为其文件存储系统:Google 运行MapReduce 来处理Bigtable中的海量数据, HBase 同样利用Hadoop MapReduce来处理HBase中的

大数据学习系列之二 ----- HBase环境搭建(单机)

引言 在上一篇中搭建了Hadoop的单机环境,这一篇则搭建HBase的单机环境 环境准备 1,服务器选择 阿里云服务器:入门型(按量付费) 操作系统:linux CentOS 6.8 Cpu:1核 内存:1G 硬盘:40G 2,配置选择 JDK:1.8 (jdk-8u144-linux-x64.tar.gz) Hadoop:2.8.2 (hadoop-2.8.2.tar.gz) HBase:1.6.2 (hbase-1.2.6-bin.tar.gz) 3,下载地址 官网地址: JDK: http

Python 操作 HBase —— Trift Trift2 Happybase 安装使用

Python无法直接访问HBase,必须通过Thrift. HBase与Thrift之间又支持两种接口标准,两种标准互不兼容,功能也互不覆盖. Thrift连接HBase还有超时自动断开的大坑. 安装Thrift依赖(Server端) Centos: yum install automake libtool flex bison pkgconfig gcc-c++ boost-devel libevent-devel zlib-devel python-devel ruby-devel open

HBase介绍及简易安装(转)

HBase介绍及简易安装(转) HBase简介 HBase是Apache Hadoop的数据库,能够对大型数据提供随机.实时的读写访问,是Google的BigTable的开源实现.HBase的目标是存储并处理大型的数据,更具体地说仅用普通的硬件配置,能够处理成千上万的行和列所组成的大型数据库.HBase是一个开源的.分布式的.多版本的.面向列的 存储模型.可以直接使用本地文件系统也可使用Hadoop的HDFS文件存储系统.为了提高数据的可靠性和系统的健壮性,并且发挥HBase处理大型数据 的能力

Hbase学习笔记(安装和基础知识及操作)

1.Hbase简介 1.面向列的分布式数据库 2. 以HDFS作为文件系统 3. 利用MapReduce处理Hbase中海量数据 4. ZookKeeper作为协调工具 5. sqoop提供Hbase到关系型数据库中数据导入功能 6. Hive和pig提供高层语言支持如HSQL 2. 伪分布式安装 准备: 安装Hadoop 详细见上一篇日志: hadoop分布式安装 hbase版本: hbase-0.94.7-security.tar.gz 安装目录 /usr/local 步骤: 1.  安装

HBASE 0.98版本安装,四步曲:安装HBAES 0.98

1.下载hbase-0.98.2-hadoop2-bin.tar.gz 2.解压缩 3.挪动hbase到相应的位置去/home/hadoop/hbase 4.配置hbase /home/hadoop/hbase/conf/hbase-site.xml <property> <name>hbase.rootdir</name> <value>hdfs://hd1:9000/hbase</value> </property> <pr

Zookeeper集群安装(HBase集群已安装好)

HBase集群已安装好,在使用了其内置的zookeeper集群出现问题无法解决后改用自己安装的zookeeper集群,HBase集群可成功启动. 1.在/home/instal目录下,解压zookeeper-3.4.6到该目录下 tar  -zxvf  zookeeper-3.4.6.tar.gz  -C /home/instal 2.复制zookeeper-3.4.6/conf下的zoo_sample.cfg,并且重命名为zoo.cfg cp  zoo_sample.cfg  zoo.cfg