zookeeper和hbase安装

一、zookeeper

1、/etc/profile

HADOOP_PREFIX=/opt/hadoop

JAVA_HOME=/opt/jdk18

ZOOKEEPER_HOME=/opt/zookeeper

HBASE_HOME=/opt/hbase

PATH=$PATH:$JAVA_HOME/bin:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bin

export HADOOP_PREFIX PATH JAVA_HOME ZOOKEEPER_HOME HBASE_HOME USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL

2、创建目录:

mkdir -p /opt/zookeeper/data

mkdir -p /opt/zookeeper/logs

3、修改zoo.cfg配置文件,在在文件末尾添加。

server.1=NameNode34:2888:3888

server.2=DataNode35:2888:3888

server.3=DataNode37:2888:3888

server.4=DataNode38:2888:3888

dataDir=/opt/zookeeper/data

dataLogDir=/opt/zookeeper/logs

4、创建myid文件

在dataDir目录下创建myid文件,该文件的内容根据server定义的不同而不同,如server.1 该文件的内容是1,server.2 该文件内容是 2,以此类推.

节点1

echo "1">myid

节点2

echo "2">myid

节点3

echo "3">myid

节点4

echo "4">myid

5、拷贝至其他节点

scp /etc/profile [email protected]:/etc/profile

scp /etc/profile [email protected]:/etc/profile

scp /etc/profile [email protected]:/etc/profile

scp -r /opt/zookeeper [email protected]:/opt

scp -r /opt/zookeeper [email protected]:/opt

scp -r /opt/zookeeper [email protected]:/opt

6、在每个节点上

source /etc/profile

7、在每个节点上执行 zkServer.sh start

JMX enabled by default

Using config: /usr1/zookeeper/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

1.8 验证

[[email protected] bin]$ ./zkServer.sh status

JMX enabled by default

Using config: /usr1/zookeeper/bin/../conf/zoo.cfg

Mode: leader

[[email protected] bin]$ ./zkServer.sh status

JMX enabled by default

Using config: /usr1/zookeeper/bin/../conf/zoo.cfg

Mode: follower

[[email protected] bin]$ ./zkServer.sh status

JMX enabled by default

Using config: /usr1/zookeeper/bin/../conf/zoo.cfg

Mode: follower

[[email protected] bin]$ ./zkServer.sh status

JMX enabled by default

Using config: /usr1/zookeeper/bin/../conf/zoo.cfg

Mode: follower

-- The End --

二、hbase

1、每个节点要互相ssh互信

2、/etc/profile

HADOOP_PREFIX=/opt/hadoop

JAVA_HOME=/opt/jdk18

ZOOKEEPER_HOME=/opt/zookeeper

HBASE_HOME=/opt/hbase

PATH=$PATH:$JAVA_HOME/bin:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bin

export HADOOP_PREFIX PATH JAVA_HOME ZOOKEEPER_HOME HBASE_HOME USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL

3、修改配置文件/opt/hbase/conf/hbase-env.sh

export JAVA_HOME=/opt/jdk18/

export HBASE_CLASSPATH=/opt/hbase/conf

export HBASE_MANAGES_ZK=true

4、在hbase安装目录下建立tmp文件夹

mkdir tmp

5、修改hbase-site.xml

<configuration>

<property>

<name>hbase.rootdir</name>

<value>hdfs://NameNode34:9000/hbase</value>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<property>

<name>hbase.tmp.dir</name>

<value>/opt/hbase/tmp</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>NameNode34,DataNode35,DataNode37,DataNode38</value>

</property>

<property>

<name>hbase.zookeeper.property.dataDir</name>

<value>/opt/hbase/tmp/zookeeper</value>

</property>

</configuration>

6、编辑/opt/hbase/conf/regionservers,将所有的slavenode添加到这个文件

NameNode34

DataNode35

DataNode37

DataNode38

7、将Hbase拷贝到其他节点机并对其他节点机配置环境变量

scp /etc/profile [email protected]:/etc/profile

scp /etc/profile [email protected]:/etc/profile

scp /etc/profile [email protected]:/etc/profile

scp -r /opt/hbase [email protected]:/opt

scp -r /opt/hbase [email protected]:/opt

scp -r /opt/hbase [email protected]:/opt

8、在每个节点上

source /etc/profile

9、启动hbase

start-hbase.sh

10、验证hbase

jps

11、测试hbase shell

hbase shell

Create  ‘test’,’data’

Disable ‘test’

Dorp ‘test’

参考:

zookeeper: http://blog.chinaunix.net/uid-77311-id-4580114.html

hbase: http://blog.itpub.net/28929558/viewspace-1204409

时间: 2024-11-02 23:21:26

zookeeper和hbase安装的相关文章

HBase安装配置,使用独立zookeeper

1.HBase安装配置,使用独立zookeeper 2.修改环境变量:第一台机器规划为master, 第二台机器为RegionServer,再在第一台机器上启动RegionServer制作一个集群1 master2 RegionServer 在机器上执行:vi /etc/profile,添加如下内容:export HBASE_HOME=/usr/local/src/hbaseexport PATH=$PATH:$HBASE_HOME/bin 3.修改配置文件: vi /hbase/conf/hb

hbase学习(二)-hbase安装

本篇介绍两种HBase的安装方式:本地安装方式和伪分布式安装方式. 安装的前提条件是已经成功安装了hadoop,而且hadoop的版本要和hbase的版本相匹配. 我将要安装的hbase是hbase-0.94.11版本,需要的hadoop是hadoop-1.2.1版本. hbase下载地址:http://mirror.bit.edu.cn/apache/hbase/hbase-0.94.11/ 将下载的hbase-0.94.11解压到相应的目录,如/usr/hbase-0.94.11 将hbas

Apache Hadoop集群离线安装部署(三)——Hbase安装

Apache Hadoop集群离线安装部署(一)--Hadoop(HDFS.YARN.MR)安装:http://www.cnblogs.com/pojishou/p/6366542.html Apache Hadoop集群离线安装部署(二)--Spark-2.1.0 on Yarn安装:http://www.cnblogs.com/pojishou/p/6366570.html Apache Hadoop集群离线安装部署(三)--Hbase安装:http://www.cnblogs.com/po

HBase安装与配置(完全分布式)

------------------------------------------------ 一.前言 二.环境 三.配置 1.解压hbase安装包 2.配置系统环境变量 3.修改conf/hbase-env.sh脚本,设置环境变量 4.编辑hbase-site.xml进行配置 5.修改regionservers,添加所有slave主机 6.修改hadoop下的hdfs-site.xml 7.分发到各个slave主机 8.启动Hbase 9.验证Hmaster已经启动 四.测试 ------

hbase安装部署(二)

一.Hbase基础 1.概念 Hbase是一个在HDFS上开发的面向列分布式数据库,用于实时地随机访问超大规模数据集,它是一个面向列族的存储器.由于调优和存储都是在列族这个层次上进行,最好所有列族的成员都有相同的"访问模式"和大小特征 2.区域 hbase自动把表水平划分"区域"(region). 每个区域由表中行的子集构.每个区域由它所属于表,它所包含的第一行及其最后一行(不包括这行)来表示 区域是在hbase集群上分布数据最小单位.用这种方式,一个因为太大而无法

Hbase安装 - 伪分布式模式

网站: http://hbase.apache.org/ 版本对应关系: 通过lib目录下的hadoop-core- ...jar可以看出适配的hadoop版本 hbase-0.98.6-hadoop2    => hadoop 2.2 hbase-0.96.2-hadoop2    => hadoop 2.2 hbase-0.98.6-hadoop1    => hadoop 1.2.1 hbase-0.96.2-hadoop1    => hadoop 1.2.1 Hbase安

Hbase安装: 分布式模式

网站: http://hbase.apache.org/ 版本对应关系: 通过lib目录下的hadoop-core- ...jar可以看出适配的hadoop版本 hbase-0.98.6-hadoop2    => hadoop 2.2 hbase-0.96.2-hadoop2    => hadoop 2.2 hbase-0.98.6-hadoop1    => hadoop 1.2.1 hbase-0.96.2-hadoop1    => hadoop 1.2.1 Hbase安

Hbase总结(一)-hbase命令,hbase安装,与Hive的区别,与传统数据库的区别,Hbase数据模型

Hbase总结(一)-hbase命令 下面我们看看HBase Shell的一些基本操作命令,我列出了几个常用的HBase Shell命令,如下: 名称 命令表达式 创建表 create '表名称', '列名称1','列名称2','列名称N' 添加记录 put '表名称', '行名称', '列名称:', '值' 查看记录 get '表名称', '行名称' 查看表中的记录总数 count  '表名称' 删除记录 delete  '表名' ,'行名称' , '列名称' 删除一张表 先要屏蔽该表,才能对

HBase安装及简单使用

通过之前的hadoop0.20.2的安装并调试成功,接下来我们继续安装hbase0.90.5.在安装hbase0.90.5之前,因为hbase0.90.5只支持jdk1.6,所以,我把之前的jdk1.8卸载,重新安装了jdk1.6.  第一步: 首先需要下载hbase0.90.5.tar.gz,并解压到/home/hadoop/的目录下,同时将目录修改为hbase0.90.5 第二步: 替换hadoop核心jar包,主要母的是防止hbase和hadoop版本不同出现兼容问题,造成hmaster启