zookeeper搭建

1、解压

tar -zxf zookeeper-3.4.6.tar.gz

2、修改配置文件

[[email protected] hadoop]# cd zookeeper-3.4.6/conf/
[[email protected] conf]# cp zoo_sample.cfg zoo.cfg
[[email protected] conf]# vi zoo.cfg 

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
server.1=cluster1:2888:3888
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/usr/local/hadoop/zookeeper-3.4.6/data
dataLogDir=/usr/local/hadoop/zookeeper-3.4.6/logs
# the port at which the clients will connect
clientPort=2181
server.4=cluster4:2888:3888
server.5=cluster5:2888:3888
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
"zoo.cfg" 30L, 1011C written

3、修改myid

[[email protected] conf]# cd /usr/local/hadoop/zookeeper-3.4.6/data
[[email protected] data]# vi myid
3

[[email protected] conf]# scp /usr/local/hadoop/zookeeper-3.4.6 [email protected]:/usr/local/hadoop/
[[email protected] data]# scp /usr/local/hadoop/zookeeper-3.4.6 [email protected]:/usr/local/hadoop/

[[email protected] conf]# cd /usr/local/hadoop/zookeeper-3.4.6/data
[[email protected] data]# vi myid
4
[[email protected] conf]# cd /usr/local/hadoop/zookeeper-3.4.6/data
[[email protected] data]# vi myid
5

4、启动

在cluster4、cluster5启动
[[email protected] bin]# ./zkServer.sh start
JMX enabled by default
Using config: /usr/local/hadoop/zookeeper-3.4.6/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
[[email protected] bin]# ./zkServer.sh start
JMX enabled by default
Using config: /usr/local/hadoop/zookeeper-3.4.6/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED

5、查看

[[email protected] bin]# ./zkServer.sh status
JMX enabled by default
Using config: /usr/local/hadoop/zookeeper-3.4.6/bin/../conf/zoo.cfg
Error contacting service. It is probably not running.
这个可能是脚本问题,暂时不管。
时间: 2024-10-08 06:28:49

zookeeper搭建的相关文章

dubbo+zookeeper搭建笔记

参考博客: http://blog.csdn.net/u013142781/article/details/50396621#reply http://blog.csdn.net/u013142781/article/details/50395650 https://my.oschina.net/penngo/blog/494838 http://blog.csdn.net/morning99/article/details/40426133 内容基本来自小宝鸽的博客,部分小地方自己稍作修改.

elk+kafka+rsyslog+hadoop-hdfs+zookeeper搭建及其应用笔记

一:简述 本人之前搭建elk+redis架构收集日志,出现瓶颈,现使用新架构(els+kafka+rsyslog+hadoop-hdfs+zookeeper),解决方案. 二:搭建过程 A.rsyslogd服务 通过对 rsyslog官方文档 查看,得知 rsyslog对 kafka的支持是 v8.7.0版本后才提供的支持.通过 ChangeLog 也可以看出 V8.X的版本变化. 最新V8稳定版已经提供RPM包的Rsyslog-kafka插件了,直接yum安装即可,添加yum源: [rsysl

Zookeeper搭建集群及协同

Zookeeper搭建集群及协同 协同的实现 首先启动一个zkCli客户端(zkCLi-1),创建一个workers节点. create /workers 使用ls监控当前节点. ls -w /workers [] 当前/workers中没有子节点. 新开一个zkCli客户端(zkCli-2),在/workers中创建一个新节点. create -e /workers/w1 "w1:2220" 此时zkCli-1中收到通知. WATCHER:: WatchedEvent state:S

zookeeper搭建和脚本编写

hadoop: hdfs:分布式存储 MR: 分布式计算 hdfs: ========================= 1.namenode(元数据).datanode(真实数据).2nn(检查点) 2.hadoop-daemon.sh start namenode //启动本机进程 hadoop-daemons.sh start datanode //启动slave机器进程 3.namenode:编辑日志(hdfs oev)和镜像文件(oiv) 编辑日志:hdfs对文件的写操作,读取文件不需

使用Zookeeper搭建服务治理中心

Zookeeper是Apache Hadoop的子项目,是一个树形的目录服务,支持变更推送,适合作为Dubbo服务的注册中心,工业强度较高,推荐生成环境使用. , 下面结合上图介绍Zookeeper在服务注册与发现里面的应用: 如上图整体Zookeeper的树根Root是Dubbo,说明建立的Zookeeper分组为Dubbo,树的第二层为Service层用来表示具体的接口服务,这里为com.test.UserServiceBo接口服务,树的第三层为Type层用来区分是服务提供者,还是服务消费者

zookeeper集群环境搭建(使用kafka的zookeeper搭建zk集群)

---恢复内容开始--- 使用kafka的zookeeper来搞集群的话和单纯用zk的其实差不了多少. 0.说在前头,搭建kafka集群之前请把每个服务器的jdk搞起来. 1.安装kafka wget http://mirrors.hust.edu.cn/apache/kafka/2.0.0/kafka_2.11-2.0.0.tgz 下载kafka然后放到你的目录下 解压 tar zxvf kafka_2.11-2.0.0.tgz 2.配置zk cd kafka_2.11-2.0.0/confi

ASP.Net Core 中使用Zookeeper搭建分布式环境中的配置中心系列一:使用Zookeeper.Net组件演示基本的操作

前言:马上要过年了,祝大家新年快乐!在过年回家前分享一篇关于Zookeeper的文章,我们都知道现在微服务盛行,大数据.分布式系统中经常会使用到Zookeeper,它是微服务.分布式系统中必不可少的分布式协调框架.它的作用体现在分布式系统中解决了配置中心的问题,以及解决了在分布式环境中不同进程之间争夺资源的问题,也就是分布式锁的功能以及分布式消息队列功能等等.所以在微服务的环境中Zookeeper是现在很多公司首选的分布式协调框架,包括我之前的公司也在使用Zookeeper.说了这么多,没别的就

手把手spring cloud整合zookeeper搭建微服务

环境配置:JDK8 +IDEA 开发工具 **说明:下面搭建过程基于你本地已经配置好zookeeper 一.先搭建父工程(PS:是可以不搭建父工程的,即每个服务和client都是单独的spring boot项目,也是OK的,搭建父工程纯粹为了将项目放在一起,且pom文件可以少一点而已!) 1.先搭建父工程:spring initial -- 第二步,Type改成Maven Pom,Artifact改成demo-parent,便于理解 -- 引入两个依赖,web和zookeeper-discove

基于 ZooKeeper 搭建 Hadoop 高可用集群

一.高可用简介 二.集群规划 三.前置条件 四.集群配置 五.启动集群 六.查看集群 七.集群的二次启动 一.高可用简介 Hadoop 高可用 (High Availability) 分为 HDFS 高可用和 YARN 高可用,两者的实现基本类似,但 HDFS NameNode 对数据存储及其一致性的要求比 YARN ResourceManger 高得多,所以它的实现也更加复杂,故下面先进行讲解: 1.1 高可用整体架构 HDFS 高可用架构如下: 图片引用自:https://www.edure

Spark 系列(七)—— 基于 ZooKeeper 搭建 Spark 高可用集群

一.集群规划 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署 Worker 服务.同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop002 和 hadoop003 上分别部署备用的 Master 服务,Master 服务由 Zookeeper 集群进行协调管理,如果主 Master 不可用,则备用 Master 会成为新的主 Master. 二.前置条件 搭建 Spark 集群前,需要保证 JDK 环境.Zookeeper 集群和