ZooKeeper 集群的安装、配置---Dubbo 注册中心

ZooKeeper 集群的安装、配置、高可用测试

Dubbo 注册中心集群 Zookeeper-3.4.6

Dubbo 建议使用 Zookeeper 作为服务的注册中心。

Zookeeper 集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的。正是基于这个

特性,要将 ZK 集群的节点数量要为奇数(2n+1:如 3、5、7 个节点)较为合适。

服务器 1:192.168.1.11  端口:2181、2881、3881

服务器 2:192.168.1.12  端口:2182、2882、3882

服务器 3:192.168.1.12  端口:2183、2883、3883

1、  修改操作系统的/etc/hosts 文件,添加 IP 与主机名映射:

# zookeeper cluster servers

192.168.1.11 zk-01.ihomefnt.com ihome-zk-01

192.168.1.12 zk-02.ihomefnt.com ihome-zk-02

192.168.1.12 zk-03.ihomefnt.com ihome-zk-03

2、  下载或上传 zookeeper-3.4.6.tar.gz 到/opt/aijia/zookeeper 目录:

$ cd /opt/aijia/zookeeper

$ wget http://apache.fayea.com/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz

3、  解压 zookeeper 安装包,并按节点号对 zookeeper 目录重命名:

$ tar -zxvf zookeeper-3.4.6.tar.gz

服务器 1:

$ mv zookeeper-3.4.6 node-01

服务器 2:

$ mv zookeeper-3.4.6 node-02

服务器 3:

$ mv zookeeper-3.4.6 node-03

4、  在各 zookeeper 节点目录下创建以下目录:

$ cd /opt/aijia/zookeeper/node-0X  (X 代表节点号 1、2、3,以下同解)

$ mkdir data

$ mkdir logs

5、  将 zookeeper/node-0X/conf 目录下的 zoo_sample.cfg 文件拷贝一份,命名为 zoo.cfg:

$ cp zoo_sample.cfg zoo.cfg

6、  修改 zoo.cfg 配置文件:

zookeeper/node-01 的配置(/opt/aijia/zookeeper/node-01/conf/zoo.cfg)如下:

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/opt/aijia/zookeeper/node-01/data

dataLogDir=/opt/aijia/zookeeper/node-01/logs

clientPort=2181

server.1= ihome-zk-01:2881:3881

server.2= ihome-zk-02:2882:3882

server.3= ihome-zk-03:2883:3883

zookeeper/node-02 的配置(/opt/aijia/zookeeper/node-02/conf/zoo.cfg)如下:

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/opt/aijia/zookeeper/node-02/data

dataLogDir=/opt/aijia/zookeeper/node-02/logs

clientPort=2182

server.1= ihome-zk-01:2881:3881

server.2= ihome-zk-02:2882:3882

server.3= ihome-zk-03:2883:3883

zookeeper/node-03 的配置(/opt/aijia/zookeeper/node-03/conf/zoo.cfg)如下:

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/opt/aijia/zookeeper/node-03/data

dataLogDir=/opt/aijia/zookeeper/node-03/logs

clientPort=2183

server.1= ihome-zk-01:2881:3881

server.2= ihome-zk-02:2882:3882

server.3= ihome-zk-03:2883:3883

参 数说明:

tickTime=2000

tickTime 这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每

个 tickTime 时间就会发送一个心跳。

initLimit=10

initLimit 这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper

服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长

能忍受多少个心跳时间间隔数。当已经超过 10 个心跳的时间(也就是 tickTime)长度后 Zookeeper 服

务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 10*2000=20 秒。

syncLimit=5

syncLimit 这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少

个 tickTime 的时间长度,总的时间长度就是 5*2000=10 秒。

dataDir=/opt/aijia/zookeeper/node-01/data

dataDir 顾名思义就是 Zookeeper 保存数据的目录,默认情况下 Zookeeper 将写数据的日志文件也保存在

这个目录里。

clientPort=2181

clientPort 这个端口就是客户端(应用程序)连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端

口接受客户端的访问请求。

server.A=B:C:D

server.1= ihome-zk-01:2881:3881

server.2= ihome-zk-02:2882:3882

server.3= ihome-zk-03:2883:3883

A 是一个数字,表示这个是第几号服务器;

B 是这个服务器的 IP 地址(或者是与 IP 地址做了映射的主机名);

C 第一个端口用来集群成员的信息交换,表示这个服务器与集群中的 Leader 服务器交换信息的端口;

D 是在 leader 挂掉时专门用来进行选举 leader 所用的端口。

注 意:如果是伪集群的配置方式, 不同的 Zookeeper 实 例通信端口号不能一样,所以要 给它们分配不

同的端口号。

7、  在 dataDir=/opt/aijia/zookeeper/node-0X/data 下创建 myid 文件

编辑 myid 文件,并在对应的 IP 的机器上输入对应的编号。如在  node-01 上,myid 文件内容就是

1,node-02 上就是 2,node-03 上就是 3:

$ vi /opt/aijia/zookeeper/node-01/data/myid  ## 值为 1

$ vi /opt/aijia/zookeeper/node-02/data/myid  ## 值为 2

$ vi /opt/aijia/zookeeper/node-03/data/myid  ## 值为 3

8、  在防火墙中打开要用到的端口 218X、288X、388X

切换到 root 用户权限,执行以下命令:

# chkconfig iptables on

# service iptables start

编辑/etc/sysconfig/iptables

# vi /etc/sysconfig/iptables

如服务器 01 增加以下 3 行:

## zookeeper

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2181 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2881 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 3881 -j ACCEPT

重启防火墙:

# service iptables restart

查看防火墙端口状态:

# service iptables status

9、  启动并测试 zookeeper(要用 aijia 用户启动,不要用 root):

(1)  使用 aijia 用户到/opt/aijia/zookeeper/node-0X/bin 目录中执行:

$ /opt/aijia/zookeeper/node-01/bin/zkServer.sh start

$ /opt/aijia/zookeeper/node-02/bin/zkServer.sh start

$ /opt/aijia/zookeeper/node-03/bin/zkServer.sh start

(2)  输入 jps 命令查看进程:

$ jps

1456 QuorumPeerMain

其中,QuorumPeerMain 是 zookeeper 进程,说明启动正常

(3)  查看状态:

$ /opt/aijia/zookeeper/node-01/bin/zkServer.sh status

(4)  查看 zookeeper 服务输出信息:

由于服务信息输出文件在/opt/aijia/zookeeper/node-0X/bin/zookeeper.out

$ tail -500f zookeeper.out

10、停止 zookeeper 进程:

$ zkServer.sh stop

11、配置 zookeeper 开机使用 aijia 用户启动:

编辑 node-01、node-02、node-03 中的/etc/rc.local 文件,分别加入:

su - wusc -c ‘/opt/aijia/zookeeper/node-01/bin/zkServer.sh start‘

su - wusc -c ‘/opt/aijia/zookeeper/node-02/bin/zkServer.sh start‘

su - wusc -c ‘/opt/aijia/zookeeper/node-03/bin/zkServer.sh start‘

时间: 2024-10-25 17:14:57

ZooKeeper 集群的安装、配置---Dubbo 注册中心的相关文章

zookeeper集群的安装配置

zookeeper介绍 ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件.它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护.名字服务.分布式同步.组服务等.这是百度百科上的一个介绍,有同学想要了解zookeeper的详细信息,可以看一下官方的文档和一些相关博客.本文只介绍如何安装zookeeper. zookeeper的安装配置 设定我们有三台服务器:hostname1,host

ActiveMQ + ZooKeeper 集群高可用配置

一. 准备条件: (1) 最好是有3台服务器[2台也行, 只是根据(replicas/2)+1 公式至少得2个ActiveMQ服务存在才能保证运行, 自己测试的时候麻烦点, 关掉其中一个, 再开启, 看会不会选举到另一个ActiveMQ服务, 多试几次可以看到效果] (2)  ActiveMQ安装参考: ActiveMQ (3)  ZooKeeper安装参考:ZooKeeper 二. 配置 : ActiveMQ根目录下的conf/activemq.xml, 原来默认如下: <persistenc

storm0.9.1 集群环境安装配置

Storm安装配置 三台机器  131,132,133 需要安装 jdk,python,autoconf-2.64,zeromq-3.2.2,jzmq 安装jdk和python不详细说. 1  安装 autoconf-2.64, 1.1 下载 http://download.chinaunix.net/download.php?id=29328&ResourceID=648 上传到lunix上的工作目录 比如  /home/bigdata/ 解压  tar -xvf   autoconf-2.6

Zookeeper 集群的安装及高可用性验证已完成!

kafka_2.12-0.10.2.0.tgz zookeeper-3.3.5.tar.gz Java 环境 Zookeeper 和 Kafka 的运行都需要 Java 环境,Kafka 默认使用 G1 垃圾回收器.如果不更改垃圾回收期,官方推荐使用 7u51 以上版本的 JRE .如果使用老版本的 JRE,需要更改 Kafka 的启动脚本,指定 G1 以外的垃圾回收器. 本文使用系统自带的 Java 环境. Zookeeper 集群搭建 简介 Kafka 依赖 Zookeeper 管理自身集群

ZooKeeper集群的安装、配置、高可用测试

Dubbo注册中心集群Zookeeper-3.4.6 Dubbo建议使用Zookeeper作为服务的注册中心. Zookeeper集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的.正是基于这个特性,要将ZK集群的节点数量要为奇数(2n+1:如3.5.7个节点)较为合适. ZooKeeper与Dubbo服务集群架构图 服务器1:192.168.1.81  端口:2181.2881.3881 服务器2:192.168.1.82  端口:2182.2882.3882 服务器3:192.

ZooKeeper 集群的安装、配置

Zookeeper 集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的.正是基于这个 特性,要将 ZK 集群的节点数量要为奇数(2n+1:如 3.5.7 个节点)较为合适. 服务器IP和端口规划: 服务器 1:192.168.1.11 端口:2181.2888.3888 服务器 2:192.168.1.12 端口:2181.2888.3888 服务器 3:192.168.1.13 端口:2181.2888.3888 1. 修改操作系统的/etc/hosts 文件,添加 IP 与主机

Storm系列(一)集群的安装配置

安装前说明: 必须先安装zookeeper集群 该Storm集群由三台机器构成,主机名分别为chenx01,chenx02,chenx03,对应的IP分别为192.168.1.110,192.168.1.111,192.168.1.112,其中chenx01为MAST   1.修改主机名 vim /etc/sysconfig/network NETWORKING=yes HOSTNAME=chenx01   2.修改主机和IP的映射关系 vim /etc/hosts 127.0.0.1 loca

Zookeeper 集群的安装与部署

一:集群环境 模拟三台zookeeper集群环境,IP规划如下: Server1:     192.168.189.129 Server2:    192.168.189.131 Server3:    192.168.189.132 二:安装环境准备 Zookeeper需在java环境下运行,因此在部署zookeeper环境前,需先安装JDK: # tar -zvxf jdk-7u11-linux-x64.gz # mv jdk1.7.0_11/ /usr/local/java # cd /u

Storm集群的安装配置

Storm集群的安装分为以下几步: 1.首先保证Zookeeper集群服务的正常运行以及必要组件的正确安装 2.释放压缩包 3.修改storm.yaml添加集群配置信息 4.使用storm脚本启动相应服务并查看服务状态 5.通过web查看storm集群的状态 安装Storm之前首先保证之前安装的Zookeeper服务正常运行,包括配置hosts映射,主机名修改,防火墙都已经设置完好 Storm是由java编写,因此必须依赖JDK运行,系统首先应正确安装JDK 部分需要依赖Python,红帽系列L