下载安装包,解压 tar xzf 名
与hadoop一样 先放在 /usr
在解压后的zookeeper文件中的conf目录下面找到zoo_sample.cfg 复制一份,更改为zoo.cfg,修改其中内容,vi zoo.cfg
添加:
操作步骤
2.1 复制以上文件到/usr/下
2.2 解压后得到目录: /usr/zookeeper-3.3.3
2.3 进入zookeeper-3.3.3目录下,把conf目录下的zoo_sample.cfg 复制成zoo.cfg文件
2.4 打开zoo.cfg并修改和添加配置项目,如下:
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the port at which the clients will connect
clientPort=2181
# the directory where the snapshot is stored.
#dataDir=/export/crawlspace/mahadev/zookeeper/server1/data
dataDir=/usr/zookeeper-3.3.3/data
clientPort=2181
Server.0=master.hadoop:2888:3888
Server.1=slave1.hadoop:2888:3888
Server.2=
slave2.hadoop:2888:3888
Server.3=
slave3.hadoop:2888:3888
Server.4=
slave4.hadoop:2888:3888
直到:
Server.13=
slave12.hadoop:2888:3888
新建两个目录
mkdir /usr/zookeeper-3.3.3/{data,log}
2.6 在/usr/zookeeper-3.3.3/data目录下创建一个文件:myid
2.7 分别在myid上按照配置文件的server.<id>中id的数值,在不同机器上的该文件中填写相应过的值
master.hadoop的myid内容为1
slave1.hadoop的为2
slave12.hadoop的为13
使用scp 把zookeeper-3.9.8 文件夹拷贝到其余节点,在每个节点的/usr 目录下新建一个文件夹zookeeper,在该目录下新建名为myid的文件。如果在hadoop用户下建立,权限则不够。权限根据zoo.cfg中的配置,在各自的myid文件中写入各自的编号,如:0,1,2,3,4 在所有节点的zookeeper/bin文件夹下启动zookeeper
./zkServer.sh
start
时间同步操作,以主节点为准。
创建一个环境变量ZOOKEEPER并把该环境变量添加到系统路径:
vim /etc/profile
在export PATH语句前添加两行:
ZOOKEEPER=/usr/zookeeper-3.3.3/
PATH=$PATH:$ZOOKEEPER/bin:
并执行 source /etc/profile
启动检测zookeeper
3.1 在三台机器上分别执行shell脚本,由于已经把可执行路径添加到环境变量中了,所以可以直接执行:
zkServer.sh start
3.2 在其中一台机器上执行客户端脚本,来查看这台服务器是否启动:
zkCli.sh -server 192.168.201.128(所需IP地址):2181
4,查看状态
4.1 执行jps查看状态
jps
4.2 查看zookeeper集群是否启动
zkServer.sh status
[[email protected] ~]# zkServer.sh status
JMX enabled by default
Using config: /usr/zookeeper-3.3.3/bin/../conf/zoo.cfg
Mode: follower
leader的显示是:
JMX enabled by default
Using config: /usr/zookeeper-3.3.3/bin/../conf/zoo.cfg
Mode: leader
4.3 查看zookeeper的启动状态
echo ruok | nc 192.168.201.128 2181
控制台输出: imok
接下来安装HBase:http://blog.csdn.net/hguisu/article/details/7244413;
HBase 基本操作:http://blog.csdn.net/kky2010_110/article/details/12616137;
首先需要将hbase下的bin目录添加到系统的path中,修改/etc/profile,添加如下的内容:
export PATH=$PATH:/usr/hbase/bin 主节点有即可。
首先解压hbase-0.98.8-hadoop2.4.1-bin文件,此文件就是预备阶段自己编译好的那个文件。
修改hbase-env.sh
hbase-0.98.8/conf
#vi hbase-env.sh
export
HBASE_PID_DIR=/usr/hbase/pids
export
HBASE_CLASSPATH=/usr/hadoop/etc/hadoop/
export
JAVA_HOME=/usr/java/jdk1.7.0_67/
export
JAVA_HOME=/usr/java/jdkXXX
export
HBASE_MANAGES_ZK=false
注解:
HBASE_MANAGES_ZK=false
指示HBase 使用已有的Zookeeper 而不是自带的。
修改hbase-site.xml
#cd
/home/hadoop/hbase-0.94.3/conf
#vi
hbase-site.xml
修改regionservers
#cd
/home/hadoop/hbase-0.94.3/conf
#vi
regionservers
把从节点主机名全部写上。
拷贝hbase
将配置好的hbase安装目录下所有文件分发到集群中所有节点的/usr/hadoop/