ZooKeeper集群的安装、配置、高可用测试

Dubbo注册中心集群Zookeeper-3.4.6

Dubbo建议使用Zookeeper作为服务的注册中心。

Zookeeper集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的。正是基于这个特性,要将ZK集群的节点数量要为奇数(2n+1:如3、5、7个节点)较为合适。

ZooKeeper与Dubbo服务集群架构图

服务器1:192.168.1.81  端口:2181、2881、3881

服务器2:192.168.1.82  端口:2182、2882、3882

服务器3:192.168.1.83  端口:2183、2883、3883

1、  修改操作系统的/etc/hosts文件,添加IP与主机名映射:

# zookeeper cluster servers

192.168.1.81   edu-zk-01

192.168.1.82   edu-zk-02

192.168.1.83   edu-zk-03

2、  下载或上传zookeeper-3.4.6.tar.gz到/home/wusc/zookeeper目录:

$ cd /home/wusc/zookeeper

$ wget http://apache.fayea.com/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz

3、  解压zookeeper安装包,并按节点号对zookeeper目录重命名:

$ tar -zxvf zookeeper-3.4.6.tar.gz

服务器1:

$ mv zookeeper-3.4.6 node-01

服务器2:

$ mv zookeeper-3.4.6 node-02

服务器3:

$ mv zookeeper-3.4.6 node-03

4、  在各zookeeper节点目录下创建以下目录:

$ cd /home/wusc/zookeeper/node-0X  (X代表节点号1、2、3,以下同解)

$ mkdir data

$ mkdir logs

5、  将zookeeper/node-0X/conf目录下的zoo_sample.cfg文件拷贝一份,命名为zoo.cfg:

$ cp zoo_sample.cfg zoo.cfg

6、  修改zoo.cfg配置文件:

zookeeper/node-01的配置(/home/wusc/zookeeper/node-01/conf/zoo.cfg)如下:

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/wusc/zookeeper/node-01/data

dataLogDir=/home/wusc/zookeeper/node-01/logs

clientPort=2181

server.1=edu-zk-01:2881:3881

server.2=edu-zk-02:2882:3882

server.3=edu-zk-03:2883:3883

zookeeper/node-02的配置(/home/wusc/zookeeper/node-02/conf/zoo.cfg)如下:

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/wusc/zookeeper/node-02/data

dataLogDir=/home/wusc/zookeeper/node-02/logs

clientPort=2182

server.1=edu-zk-01:2881:3881

server.2=edu-zk-02:2882:3882

server.3=edu-zk-03:2883:3883

zookeeper/node-03的配置(/home/wusc/zookeeper/node-03/conf/zoo.cfg)如下:

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/wusc/zookeeper/node-03/data

dataLogDir=/home/wusc/zookeeper/node-03/logs

clientPort=2183

server.1=edu-zk-01:2881:3881

server.2=edu-zk-02:2882:3882

server.3=edu-zk-03:2883:3883

参数说明:

tickTime=2000

tickTime这个时间是作为Zookeeper服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个tickTime时间就会发送一个心跳。

initLimit=10

initLimit这个配置项是用来配置Zookeeper接受客户端(这里所说的客户端不是用户连接Zookeeper服务器的客户端,而是Zookeeper服务器集群中连接到Leader的Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过10个心跳的时间(也就是tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 10*2000=20 秒。

syncLimit=5

syncLimit这个配置项标识Leader与Follower之间发送消息,请求和应答时间长度,最长不能超过多少个tickTime的时间长度,总的时间长度就是5*2000=10秒。

dataDir=/home/wusc/zookeeper/node-01/data

dataDir顾名思义就是Zookeeper保存数据的目录,默认情况下Zookeeper将写数据的日志文件也保存在这个目录里。

clientPort=2181

clientPort这个端口就是客户端(应用程序)连接Zookeeper服务器的端口,Zookeeper会监听这个端口接受客户端的访问请求。

server.A=B:C:D

server.1=edu-zk-01:2881:3881

server.2=edu-zk-02:2882:3882

server.3=edu-zk-03:2883:3883

A是一个数字,表示这个是第几号服务器;

B是这个服务器的IP地址(或者是与IP地址做了映射的主机名);

C第一个端口用来集群成员的信息交换,表示这个服务器与集群中的Leader服务器交换信息的端口;

D是在leader挂掉时专门用来进行选举leader所用的端口。

注意:如果是伪集群的配置方式,不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号。

7、  在dataDir=/home/wusc/zookeeper/node-0X/data下创建myid文件

编辑myid文件,并在对应的IP的机器上输入对应的编号。如在node-01上,myid文件内容就是1,node-02上就是2,node-03上就是3:

$ vi /home/wusc/zookeeper/node-01/data/myid  ## 值为1

$ vi /home/wusc/zookeeper/node-02/data/myid  ## 值为2

$ vi /home/wusc/zookeeper/node-03/data/myid  ## 值为3

8、  在防火墙中打开要用到的端口218X、288X、388X

切换到root用户权限,执行以下命令:

# chkconfig iptables on

# service iptables start

编辑/etc/sysconfig/iptables

# vi /etc/sysconfig/iptables

如服务器01增加以下3行:

## zookeeper

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2181 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 2881 -j ACCEPT

-A INPUT -m state --state NEW -m tcp -p tcp --dport 3881 -j ACCEPT

重启防火墙:

# service iptables restart

查看防火墙端口状态:

# service iptables status

9、  启动并测试zookeeper(要用wusc用户启动,不要用root):

(1)  使用wusc用户到/home/wusc/zookeeper/node-0X/bin目录中执行:

$ /home/wusc/zookeeper/node-01/bin/zkServer.sh start

$ /home/wusc/zookeeper/node-02/bin/zkServer.sh start

$ /home/wusc/zookeeper/node-03/bin/zkServer.sh start

(2)  输入jps命令查看进程:

$ jps

1456 QuorumPeerMain

其中,QuorumPeerMain是zookeeper进程,说明启动正常

(3)  查看状态:

$ /home/wusc/zookeeper/node-01/bin/zkServer.sh status

(4)  查看zookeeper服务输出信息:

由于服务信息输出文件在/home/wusc/zookeeper/node-0X/bin/zookeeper.out

$ tail -500f zookeeper.out

10、停止zookeeper进程:

$ zkServer.sh stop

11、配置zookeeper开机使用wusc用户启动:

编辑node-01、node-02、node-03中的/etc/rc.local文件,分别加入:

su - wusc -c ‘/home/wusc/zookeeper/node-01/bin/zkServer.sh start‘

su - wusc -c ‘/home/wusc/zookeeper/node-02/bin/zkServer.sh start‘

su - wusc -c ‘/home/wusc/zookeeper/node-03/bin/zkServer.sh start‘

二、安装Dubbo管控台(基础篇有讲,此处重点讲管控台如何链接集群):

Dubbo管控台可以对注册到zookeeper注册中心的服务或服务消费者进行管理,但管控台是否正常对Dubbo服务没有影响,管控台也不需要高可用,因此可以单节点部署。

IP: 192.168.1.81

部署容器:Tomcat7

端口:8080

1、  下载(或上传)最新版的Tomcat7(apache-tomcat-7.0.57.tar.gz)到/home/wusc/

2、  解压:

$ tar -zxvf apache-tomcat-7.0.57.tar.gz

$ mv apache-tomcat-7.0.57 dubbo-admin-tomcat

3、  移除/home/wusc/dubbo-admin-tomcat/webapps目录下的所有文件:

$ rm -rf *

4、  上传Dubbo管理控制台程序dubbo-admin-2.5.3.war

到/home/wusc/dubbo-admin-tomcat/webapps

5、  解压并把目录命名为ROOT:

$ unzip dubbo-admin-2.5.3.war -d ROOT

把dubbo-admin-2.5.3.war移到/home/wusc/tools目录备份

$ mv dubbo-admin-2.5.3.war /home/wusc/tools

6、  配置dubbo.properties:

$ vi ROOT/WEB-INF/dubbo.properties

dubbo.registry.address= zookeeper://192.168.1.81:2181?backup=192.168.1.82:2182,192.168.1.83:2183

dubbo.admin.root.password=wusc.123

dubbo.admin.guest.password=wusc.123

(以上密码在正式上生产前要修改)

7、  防火墙开启8080端口,用root用户修改/etc/sysconfig/iptables,

# vi /etc/sysconfig/iptables

增加:

## dubbo-admin-tomcat:8080

-A INPUT -m state --state NEW -m tcp -p tcp --dport 8080 -j ACCEPT

重启防火墙:

# service iptables restart

8、  启动Tomat7

$ /home/wusc/dubbo-admin-tomcat/bin/startup.sh

9、  浏览http://192.168.1.81:8080/

10、配置部署了Dubbo管控台的Tomcat开机启动:

在虚拟主机中编辑/etc/rc.local文件,加入:

su - wusc -c ‘/home/wusc/dubbo-admin-tomcat/bin/startup.sh‘

11、应用链接到注册中心群集的测试。

12、注册中心高可用集群的测试。
本博文出自《基于Dubbo分布式系统架构视频教程》中的课程文档:www.roncoo.com

时间: 2024-12-25 20:44:56

ZooKeeper集群的安装、配置、高可用测试的相关文章

部署k8s ssl集群实践6:配置高可用kube-apiserver组件ha+keepalived

参考文档:https://github.com/opsnull/follow-me-install-kubernetes-cluster感谢作者的无私分享.集群环境已搭建成功跑起来.文章是部署过程中遇到的错误和详细操作步骤记录.如有需要对比参考,请按照顺序阅读和测试. kubernetes master 节点运行如下组件:kube-apiserverkube-schedulerkube-controller-managerkube-scheduler 和 kube-controller-mana

zookeeper集群的安装配置

zookeeper介绍 ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件.它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护.名字服务.分布式同步.组服务等.这是百度百科上的一个介绍,有同学想要了解zookeeper的详细信息,可以看一下官方的文档和一些相关博客.本文只介绍如何安装zookeeper. zookeeper的安装配置 设定我们有三台服务器:hostname1,host

ZooKeeper 集群的安装、配置---Dubbo 注册中心

ZooKeeper 集群的安装.配置.高可用测试 Dubbo 注册中心集群 Zookeeper-3.4.6 Dubbo 建议使用 Zookeeper 作为服务的注册中心. Zookeeper 集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的.正是基于这个 特性,要将 ZK 集群的节点数量要为奇数(2n+1:如 3.5.7 个节点)较为合适. 服务器 1:192.168.1.11  端口:2181.2881.3881 服务器 2:192.168.1.12  端口:2182.2882

Zookeeper 集群的安装及高可用性验证已完成!

kafka_2.12-0.10.2.0.tgz zookeeper-3.3.5.tar.gz Java 环境 Zookeeper 和 Kafka 的运行都需要 Java 环境,Kafka 默认使用 G1 垃圾回收器.如果不更改垃圾回收期,官方推荐使用 7u51 以上版本的 JRE .如果使用老版本的 JRE,需要更改 Kafka 的启动脚本,指定 G1 以外的垃圾回收器. 本文使用系统自带的 Java 环境. Zookeeper 集群搭建 简介 Kafka 依赖 Zookeeper 管理自身集群

Linux HA Cluster高可用服务器集群,所谓的高可用不是主机的高可用,而是服务的高可用。

什么叫高可用:一个服务器down掉的可能性多种多样,任何一个可能坏了都有可能带来风险,而服务器离线通常带来的代价是很大的,尤其是web站点,所以当某一台提供服务的的服务器down掉不至于服务终止的就叫高可用. 什么叫心跳:就是将多台服务器用网络连接起来,而后每一台服务器都不停的将自己依然在线的信息很简短很小的通告给同一个网络中的备用服务器的主机,告诉其实主机自己依然在线,其它服务器收到这个心跳信息就认为本机是在线的,尤其是主服务器. 心跳信息怎么发送,由谁来收,其实就是进程中的通信两台主机是没法

storm0.9.1 集群环境安装配置

Storm安装配置 三台机器  131,132,133 需要安装 jdk,python,autoconf-2.64,zeromq-3.2.2,jzmq 安装jdk和python不详细说. 1  安装 autoconf-2.64, 1.1 下载 http://download.chinaunix.net/download.php?id=29328&ResourceID=648 上传到lunix上的工作目录 比如  /home/bigdata/ 解压  tar -xvf   autoconf-2.6

Apache shiro集群实现 (六)分布式集群系统下的高可用session解决方案---Session共享

Apache shiro集群实现 (一) shiro入门介绍 Apache shiro集群实现 (二) shiro 的INI配置 Apache shiro集群实现 (三)shiro身份认证(Shiro Authentication) Apache shiro集群实现 (四)shiro授权(Authentication)--访问控制 Apache shiro集群实现 (五)分布式集群系统下的高可用session解决方案 Apache shiro集群实现 (六)分布式集群系统下的高可用session

使用kubeadm部署k8s集群02-配置etcd高可用

使用kubeadm部署k8s集群02-配置etcd高可用 2018/1/4 配置 etcd 高可用 新建一个 2 节点的 etcd cluster 查看 etcd 的状态 迁移原来 master 节点上的 etcd 数据到上面新建的 etcd cluster 中 切换 kube-apiserver 使用新的 etcd endpoint 地址 清理掉原来的单节点 etcd 服务 重建一个 etcd 服务,加入新集群 部署新的 etcd 节点 更新另外2个节点的 etcd.yaml 配置 新建一个

分布式集群系统下的高可用session解决方案

目前,为了使web能适应大规模的访问,需要实现应用的集群部署. 而实现集群部署首先要解决session的统一,即需要实现session的共享机制. 目前,在集群系统下实现session统一的有如下几种方案: (1) 应用服务器间的session复制共享(如tomcat session共享) (2) 基于cache DB缓存的session共享 应用服务器间的session复制共享 session复制共享,主要是指集群环境下,多台应用服务器之间同步session,使session保持一致,对外透明