zookeeper 多实例的部署

/home/zookeeper/conf

zoo.cfg  配置文件

[[email protected] conf]$ cat zoo.cfg
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.
dataDir=/home/cloud/zookeeper/
dataLogDir=/home/cloud/zookeeper/log/
# the port at which the clients will connect
clientPort=2182
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the 
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.1=172.16.1.56:2888:38888
server.2=172.16.1.57:2888:38888
server.3=172.16.1.58:2888:38888
[[email protected] conf]$ cat vt_zoo.cfg 
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.
dataDir=/home/cloud/zookeeper/vt_data/
dataLogDir=/home/cloud/zookeeper/vt_log/
# the port at which the clients will connect
clientPort=2183
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the 
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.4=172.16.1.56:3888:38889
server.5=172.16.1.57:3888:38889
server.6=172.16.1.58:3888:38889
[[email protected] conf]$

myid配置

[[email protected] zookeeper]$ ll
total 2972
drwxrwxr-x  2 cloud cloud    4096 Mar 14 16:20 bin
-rwxr-xr-x  1 cloud cloud   82446 Aug 22  2016 build.xml
-rwxr-xr-x  1 cloud cloud   80776 Aug 22  2016 CHANGES.txt
drwxrwxr-x  2 cloud cloud    4096 Apr 21 09:46 conf
drwxrwxr-x 10 cloud cloud    4096 Aug 22  2016 contrib
drwxrwxr-x  2 cloud cloud    4096 Aug 22  2016 dist-maven
drwxrwxr-x  6 cloud cloud    4096 Aug 22  2016 docs
-rwxr-xr-x  1 cloud cloud    1953 Aug 22  2016 ivysettings.xml
-rwxr-xr-x  1 cloud cloud    3375 Aug 22  2016 ivy.xml
drwxrwxr-x  4 cloud cloud    4096 Aug 22  2016 lib
-rwxr-xr-x  1 cloud cloud   11358 Aug 22  2016 LICENSE.txt
drwxrwxr-x  3 cloud cloud    4096 Aug 22  2016 log
-rwxr-xr-x  1 cloud cloud       2 Aug 22  2016 myid
-rwxr-xr-x  1 cloud cloud       2 Aug 22  2016 myid~
-rwxr-xr-x  1 cloud cloud     170 Aug 22  2016 NOTICE.txt
-rwxr-xr-x  1 cloud cloud    1770 Aug 22  2016 README_packaging.txt
-rwxr-xr-x  1 cloud cloud    1585 Aug 22  2016 README.txt
drwxrwxr-x  5 cloud cloud    4096 Aug 22  2016 recipes
drwxrwxr-x  8 cloud cloud    4096 Aug 22  2016 src
drwxrwxr-x  2 cloud cloud   12288 Apr 21 09:50 version-2
drwxrwxr-x  3 cloud cloud    4096 Mar 14 16:18 vt_data
drwxrwxr-x  3 cloud cloud    4096 Mar 14 15:19 vt_log
-rwxr-xr-x  1 cloud cloud 1340305 Aug 22  2016 zookeeper-3.4.6.jar
-rwxr-xr-x  1 cloud cloud     836 Aug 22  2016 zookeeper-3.4.6.jar.asc
-rwxr-xr-x  1 cloud cloud      33 Aug 22  2016 zookeeper-3.4.6.jar.md5
-rwxr-xr-x  1 cloud cloud      41 Aug 22  2016 zookeeper-3.4.6.jar.sha1
-rwxr-xr-x  1 cloud cloud 1415995 Aug 22  2016 zookeeper.out
-rw-rw-r--  1 cloud cloud       5 Apr 21 09:50 zookeeper_server.pid
[[email protected] zookeeper]$ cat  myid
1
[[email protected] zookeeper]$ cd vt_data/
[[email protected] vt_data]$ cat myid 
4
[[email protected] vt_data]$

启动脚步

[[email protected] zookeeper]$ cd bin
[[email protected] bin]$ ls
README.txt  startzk.sh  stopserver.sh  zkCleanup.sh  zkCli.cmd  zkCli.sh  zkEnv.cmd  zkEnv.sh  zkServer.cmd  zkServer.sh  zookeeper.out
[[email protected] bin]$ cat startzk.sh 

./zkServer.sh start
./zkServer.sh start ../conf/vt_zoo.cfg
[[email protected] bin]$ cat  stopserver.sh 

kkk="zookeeper/bin" 
echo "========================="
echo "begin:process num is  `ps -ef|grep -v grep |grep -c $kkk`" 
ps -ef|grep -v grep |grep $kkk |awk {‘print $2‘}|while read line
do
echo "========================="
echo "process id is $line"
echo "kill -9 $line"
kill -9 $line
echo "end:process num is  `ps -ef|grep -v grep |grep -c $kkk`" 
echo "========================="
done
[[email protected] bin]$ pwd
/home/zookeeper/bin
[[email protected] bin]$
时间: 2024-11-04 03:50:59

zookeeper 多实例的部署的相关文章

Zookeeper集群安装部署

 zookeeper集群: zookeeper作为一个开源的分布式应用协调系统,已经用到了许多分布式项目中,用来状态同步服务.集群管理.分布式应用配置项的管理等工作. ZooKeeper的工作模式有三种:单机模式.集群模式.伪集群模式. 单机模式:Zookeeper只运行在一台服务器上,适合测试用: 伪集群模式:就是在一台机器上运行多个Zookeeper 实例: 集群模式:运行于一个至少有三个节点以上集群中,适合生产环境; Zookkeeper 集群中有三种角色,leader -主节点 .fol

(转)ZooKeeper 笔记(1) 安装部署及hello world

ZooKeeper 笔记(1) 安装部署及hello world 先给一堆学习文档,方便以后查看 官网文档地址大全: OverView(概述) http://zookeeper.apache.org/doc/r3.4.6/zookeeperOver.html Getting Started(开始入门) http://zookeeper.apache.org/doc/r3.4.6/zookeeperStarted.html Tutorial(教程) http://zookeeper.apache.

Linux平台oracle 11g单实例 安装部署配置 快速参考

1.重建主机的Oracle用户 组 统一规范 uid gid 以保证共享存储挂接或其他需求的权限规范 userdel -r oracle groupadd -g 500 oinstall groupadd -g 501 dba useradd -g oinstall -G dba -u 500 oracle #id oracle uid=500(oracle) gid=500(oinstall) 组=500(oinstall),501(dba) 2.安装好Oracle 需要的rpm包.安装rpm

ZooKeeper分布式集群部署及问题

ZooKeeper为分布式应用系统提供了高性能服务,在许多常见的集群服务中被广泛使用,最常见的当属HBase集群了,其他的还有Solr集群.Hadoop-2中的HA自己主动故障转移等. 本文主要介绍了为HBase集群部署ZooKeeper集群的过程.并说明了部署过程中遇到的问题. 默认情况下,由HBase管理ZooKeeper的启动和停止.要想改动这一默认行为,须要将hbase-env.sh中的export HBASE_MANAGES_ZK=true改为export HBASE_MANAGES_

dubbo+zookeeper+spring实例

互联网的发展,网站应用的规模不断扩大,常规的垂直应用架构已无法应对,分布式服务架构以及流动计算架构势在必行,Dubbo是一个分布式服务框架,在这种情况下诞生的.现在核心业务抽取出来,作为独立的服务,使前端应用能更快速和稳定的响应. 第一:介绍Dubbo背景 大规模服务化之前,应用可能只是通过RMI或Hessian等工具,简单的暴露和引用远程服务,通过配置服务的URL地址进行调用,通过F5等硬件进行负载均衡. (1) 当服务越来越多时,服务URL配置管理变得非常困难,F5硬件负载均衡器的单点压力也

zookeeper的安装与部署-伪集群

1.Zookeeper的下载与解压     通过后面的链接下载Zookeeper:    Zookeeper下载在此我们下载zookeeper-3.4.5下载后解压至安装目录下,本文我们解压到目录:/opt/zookeeper-3.4.8 $:tar -xzvf zookeeper-3.4.8.tar.gz -C /opt/ 如下图所示:   2.zookeeper的环境变量的配置: 为了今后操作方便,我们需要对Zookeeper的环境变量进行配置,方法如下:在/etc/profile文件中加入

zookeeper集群的部署

因为这里zookeeper的集群部署都会2n+1台 Dubbo建议使用Zookeeper作为服务的注册中心. Zookeeper集群中只要有过半的节点是正常的情况下,那么整个集群对外就是可用的.正是基于这个特性,要将ZK集群的节点数量要为奇数(2n+1:如3.5.7个节点)较为合适. ZooKeeper与Dubbo服务集群架构图 这里我们首先选择三台机器 10.19.42.53 10.19.190.32 10.19.165.206 1. 修改操作系统的/etc/hosts文件,添加IP与主机名映

zookeeper与kafka安装部署及java环境搭建

1. ZooKeeper安装部署 本文在一台机器上模拟3个zk server的集群安装. 1.1. 创建目录.解压 cd /usr/ #创建项目目录 mkdir zookeeper cd zookeeper mkdir tmp mkdir zookeeper-1 mkdir zookeeper-2 mkdir zookeeper-3 cd tmp mkdir zk1 mkdir zk2 mkdir zk3 cd zk1 mkdir data mkdir log cd zk2 mkdir data

IDEA上创建 Maven SpringBoot + zookeeper +dubbo 实例

概述 首先声明,本文是学习总结类型的博客内容,如有雷同纯属学习.本位主要结合zookeeper和dubbo做个简单实例.目前来说,一般网站架构随着业务的发展,逻辑越来越复杂,数据量越来越大,交互越来越多之后的常规方案演进历程. 其次,当服务越来越多之后,我们需要做哪些服务治理? Dubbo主要处理服务,约束服务提供者和消费者之间的关系.Dubbo处理消费者.提供者以及注册的关系如下: Zookeeper使用 ZooKeeper 虽然是一个针对分布式系统的协调服务,但它本身也是一个分布式应用程序.