ZooKeeper是一个分布式的、开源的分布式应用程序协调服务,可以在分布 式环境中实现应用配置管理、统一命名服务、状态同步服务等功能。
ZooKeeper是一种为分布式应用所设计的高可用、高性能的开源协调服务,它提供了一项基本服务:分布式锁 服务。由于ZooKeeper开源的特性,在其分布式锁实现的基础上,又被摸索出了其它的功用,譬如:配置维 护、组服务、分布式消息队列等等。 ZooKeeper维护了一个类似文件系统的数据结构,其内部每个子目录都被 称作znode(目录节点),与文件系统一样,我们可以自由的增删改查znode。ZooKeeper集群适合搭建在奇数 台机器上。只要集群中半数以上主机处于存活,那么服务就是可用的。 ZooKeeper在配置文件中并没有指定 master和slave,但是,ZooKeeper在工作时,只有一个节点为leader,其余节点为follower,leader是通过内部 的选举机制临时产生的。
ZooKeeper特点
1、顺序一致性:以zxid来保证事务的顺序性。
2、原子性:以zab保证原子操作,要么成功,要么失败。
3、单一视图:客户获取到的数据始终是一致的。
4、可靠:以版本实现"写入校验",保证了数据写入的正确性。
ZooKeeper有三种安装方式:单机模式 & 伪集群模式 & 集群模式
单机模式:ZooKeeper以单实例的形式运 行在一台服务器上,适合测试环境。
伪集群模式:在一台服务器上跑多个ZooKeeper实例。
集群模式: ZooKeeper运行在多台服务器上,适合生产环境。
所需软件包(提取码:mqtp )
一、开始部署
1、单机安装Zookeeper
#安装JDK环境
[[email protected] ~]# tar zxf jdk-8u211-linux-x64.tar.gz -C /usr/local/
[[email protected] ~]# vim /etc/profile # 编辑Java变量
..........................
export JAVA_HOME=/usr/local/jdk1.8.0_211
export JRE_HOME=/usr/local/jdk1.8.0_211/jre
export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
[[email protected] ~]# source /etc/profile # 执行使配置生效
[[email protected] ~]# java -version # 查看是否安装成功
java version "1.8.0_211"
Java(TM) SE Runtime Environment (build 1.8.0_211-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.211-b12, mixed mode)
#安装zookeeper
[[email protected] ~]# tar zxf zookeeper-3.4.14.tar.gz -C /usr/local/
[[email protected] ~]# vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.14
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$ZOOKEEPER_HOME/bin:$PATH # 加入Java配置的PATH中
[[email protected] ~]# source /etc/profile
[[email protected] ~]# cd /usr/local/zookeeper-3.4.14/conf/
[[email protected] conf]# cp zoo_sample.cfg zoo.cfg
[[email protected] conf]# mkdir -p /usr/local/zookeeper-3.4.14/data # 创建数据目录
[[email protected] conf]# sed -i "s/dataDir=\/tmp\/zookeeper/dataDir=\/usr\/local\/zookeeper-3.4.14\/data/g" zoo.cfg
[[email protected] conf]# zkServer.sh start # 启动服务
[[email protected] conf]# netstat -anput | grep 2181 # 确定端口在监听
tcp6 0 0 :::2181 :::* LISTEN 4903/java
1)客户端命令操作
[[email protected] ~]# zkCli.sh # 后面不加任何参数默认连接localhost本机的2181端口
Connecting to localhost:2181
[zk: localhost:2181(CONNECTED) 0] help # 显示客户端支持的命令
[zk: localhost:2181(CONNECTED) 1] ls / # 查看当前zk中所包含的内容
[zookeeper]
[zk: localhost:2181(CONNECTED) 2] ls2 / # 查看当前zk中的内容及详情
[zookeeper]
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
[zk: localhost:2181(CONNECTED) 3] create /test1 neirong # 创建一个节点
Created /test1
[zk: localhost:2181(CONNECTED) 4] ls / # 可以看到已经多了一个test1
[zookeeper, test1]
[zk: localhost:2181(CONNECTED) 5] get /test1 # huo获取节点信息,需写绝对路径
neirong # 节点数据信息
cZxid = 0x2 # 节点创建时额zxid
ctime = Sat Apr 04 16:15:30 CST 2020 # 节点创建的时间
mZxid = 0x2
mtime = Sat Apr 04 16:15:30 CST 2020 # 节点最近一次更新的时间
pZxid = 0x2
cversion = 0 # 子结点数据更新次数
dataVersion = 0 # 本节点数据更新次数
aclVersion = 0 # 节点ACL的更新次数
ephemeralOwner = 0x0
dataLength = 7 # 节点数据长度
numChildren = 0 # 子结点的数量
[zk: localhost:2181(CONNECTED) 6] set /test1 "gengxin" # 更新节点数据
[zk: localhost:2181(CONNECTED) 7] get /test1 # 可以看到已经更改为新的数据
gengxin
[zk: localhost:2181(CONNECTED) 8] history # 列出zui最近所使用的命令
0 - help
1 - ls /
2 - ls2 /
3 - create /test1 neirong
4 - ls /
5 - get /test1
6 - set /test1 "gengxin"
7 - get /test1
8 - history
[zk: localhost:2181(CONNECTED) 9] delete /test1 # 删除节点,但是无法删除拥有子节点的 节点
[zk: localhost:2181(CONNECTED) 11] rmr /test1 # rmrk可以删除带有子节点的节点
关于zoo.cfg配置参数说明可参考官方文档
2、zookeeper单机伪集群部署
在一台主机上跑多个zk实例,每个zk实例对应一个独立的配置文件;但是每个配置文件的clientPort & dataDir & dataLogDir绝对不能相同,还需要在dataDir中创建myid文件来指定该dataDir对应的zk实例。
环境如下:
这里在一台物理服务器上,部署3个zk实例
1)安装zookeeper
#安装好JDK,可参考之前单机安装
[[email protected] ~]# java -version
java version "1.8.0_211"
Java(TM) SE Runtime Environment (build 1.8.0_211-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.211-b12, mixed mode)
#安装zookeeper
[[email protected] ~]# tar zxf zookeeper-3.4.14.tar.gz -C /usr/local/
[[email protected] ~]# vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.14
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$ZOOKEEPER_HOME/bin:$PATH
[[email protected] ~]# source /etc/profile
#创建数据目录
[[email protected] ~]# mkdir -p /usr/local/zookeeper-3.4.14/{data_0,data_1,data_2}
#创建myid文件,并填入ID值
[[email protected] ~]# echo 0 > /usr/local/zookeeper-3.4.14/data_0/myid
[[email protected] ~]# echo 1 > /usr/local/zookeeper-3.4.14/data_1/myid
[[email protected] ~]# echo 2 > /usr/local/zookeeper-3.4.14/data_2/myid
#创建事务日志目录,官方建立尽量给事务日志作单独的磁盘或挂载点,这会极大的提高zk性能
[[email protected] ~]# mkdir -p /usr/local/zookeeper-3.4.14/{logs_0,logs_1,logs_2}
#配置server0
[[email protected] ~]# cd /usr/local/zookeeper-3.4.14/conf/
[[email protected] conf]# cp zoo_sample.cfg zoo_0.cfg
[[email protected] conf]# egrep -v "^$|^#" zoo_0.cfg # 修改配置文件为如下
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper-3.4.14/data_0/
clientPort=2180
dataLogDir=/usr/local/zookeeper-3.4.14/logs_0/
server.0=127.0.0.1:2287:3387
server.1=127.0.0.1:2288:3388
server.2=127.0.0.1:2289:3389
#配置server1
[[email protected] conf]# cp zoo_0.cfg zoo_1.cfg # 复制之前的配置文件,修改个别参数
[[email protected] conf]# vim zoo_1.cfg
dataDir=/usr/local/zookeeper-3.4.14/data_1/
clientPort=2181
dataLogDir=/usr/local/zookeeper-3.4.14/logs_1/
#配置server2
[[email protected] conf]# cp zoo_0.cfg zoo_2.cfg
[[email protected] conf]# vim zoo_2.cfg
dataDir=/usr/local/zookeeper-3.4.14/data_2/
clientPort=2182
dataLogDir=/usr/local/zookeeper-3.4.14/logs_2/
[[email protected] conf]# zkServer.sh start zoo_0.cfg # 我这里是在conf目录下,所以后面直接接着配置文件,如果不在conf下,则需写全路径
#启动各实例
[[email protected] conf]# zkServer.sh start zoo_1.cfg
[[email protected] conf]# zkServer.sh start zoo_2.cfg
[[email protected] conf]# netstat -anput | grep java
tcp6 0 0 :::2180 :::* LISTEN 9251/java
tcp6 0 0 :::2181 :::* LISTEN 9291/java
tcp6 0 0 :::2182 :::* LISTEN 9334/java
#列出JVM
[[email protected] conf]# jps
9377 Jps
9251 QuorumPeerMain
9334 QuorumPeerMain
9291 QuorumPeerMain
#各实例都启动之后就可以使用客户端进行连接了
[[email protected] conf]# zkCli.sh -server 127.0.0.1:2180 # 例
关于多个server的配置说明: 这些server表单服务器的条目。列出组成ZooKeeper服务的服务器。当服务器启动 时,它通过在数据目录中查找文件myid来知道它是哪个服务器。该文件包含服务器号。 最后,注意每个服务器 名后面的两个端口号:“2287”和“3387”。对等点使用前一个端口连接到其他对等点。这样的连接是必要的,以便 对等点可以通信,例如,就更新的顺序达成一致。更具体地说,ZooKeeper服务器使用这个端口将追随者连接 到leader。当一个新的领导者出现时,追随者使用这个端口打开一个TCP连接到领导者。由于默认的领导人选举 也使用TCP,我们目前需要另一个端口的领导人选举。这是服务器条目中的第二个端口。
3、 ZooKeeper多机集群部署
为了获得可靠的zk服务,应该在多台服务器上部署多个zk,只要集群中大多数的zk服务启动了,那么总的zk服 务将是可用的。 在多台主机上搭建ZooKeeper集群的方式,与伪集群几乎是差不多的。
环境如下:
三台服务器上都需要执行如下操作
#安装好JDK
[[email protected] ~]# java -version
java version "1.8.0_211"
Java(TM) SE Runtime Environment (build 1.8.0_211-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.211-b12, mixed mode)
#安装好zookeeper
[[email protected] ~]# tar zxf zookeeper-3.4.14.tar.gz -C /usr/local/
[[email protected] ~]# vim /etc/profile
export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.14
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$ZOOKEEPER_HOME/bin:$PATH # 加入Java配置的PATH中
[[email protected] ~]# source /etc/profile
server0配置
[[email protected] ~]# mkdir -p /usr/local/zookeeper-3.4.14/{data,logs}
[[email protected] ~]# echo 0 > /usr/local/zookeeper-3.4.14/data/myid
[[email protected] ~]# cd /usr/local/zookeeper-3.4.14/conf/
[[email protected] conf]# cp zoo_sample.cfg zoo.cfg
[[email protected] conf]# egrep -v "^$|^#" zoo.cfg # 修改配置文件为如下
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/usr/local/zookeeper-3.4.14/data/
clientPort=2181
dataLogDir=/usr/local/zookeeper-3.4.14/logs
server.0=192.168.171.134:2288:3388
server.1=192.168.171.135:2288:3388
server.2=192.168.171.140:2288:3388
[[email protected] conf]# zkServer.sh start # 启动实例
[[email protected] conf]# netstat -anput | grep java # 确定端口在监听
tcp6 0 0 :::43542 :::* LISTEN 40355/java
tcp6 0 0 192.168.171.134:3388 :::* LISTEN 40355/java
tcp6 0 0 :::2181 :::* LISTEN 40355/java
server1配置
[[email protected] ~]# mkdir -p /usr/local/zookeeper-3.4.14/{data,logs}
[[email protected] ~]# echo 1 > /usr/local/zookeeper-3.4.14/data/myid
[[email protected] ~]# cd /usr/local/zookeeper-3.4.14/conf/
[[email protected] conf]# scp [email protected]:/usr/local/zookeeper-3.4.14/conf/zoo.cfg ./
[[email protected] conf]# zkServer.sh start
[[email protected] conf]# netstat -anput | grep java
tcp6 0 0 192.168.171.135:3388 :::* LISTEN 40608/java
tcp6 0 0 :::2181 :::* LISTEN 40608/java
server2配置
[[email protected] ~]# mkdir -p /usr/local/zookeeper-3.4.14/{data,logs}
[[email protected] ~]# echo 2 > /usr/local/zookeeper-3.4.14/data/myid
[[email protected] ~]# cd /usr/local/zookeeper-3.4.14/conf/
[[email protected] conf]# scp [email protected]:/usr/local/zookeeper-3.4.14/conf/zoo.cfg ./
[[email protected] conf]# zkServer.sh start
[[email protected] conf]# netstat -anput | grep java
tcp6 0 0 192.168.171.140:3388 :::* LISTEN 12769/java
tcp6 0 0 :::2181 :::* LISTEN 12769/java
查看各zk节点的状态
[[email protected] /]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper-3.4.14/bin/../conf/zoo.cfg
Mode: follower
[[email protected] /]# zkServer.sh status # 02服务器为leader
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper-3.4.14/bin/../conf/zoo.cfg
Mode: leader
[[email protected] /]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper-3.4.14/bin/../conf/zoo.cfg
Mode: follower
原文地址:https://blog.51cto.com/14227204/2484928