zookeeper源码 — 三、集群启动—leader、follower同步

zookeeper集群启动的时候,首先读取配置,接着开始选举,选举完成以后,每个server根据选举的结果设置自己的角色,角色设置完成后leader需要和所有的follower同步。上面一篇介绍了leader选举过程,这篇接着介绍启动过程中的leader和follower同步过程。

本文结构如下:

  • 同步过程
  • 总结

同步过程

设置server当前状态

server刚启动的时候都处于LOOKING状态,选举完成后根据选举结果和对应配置进入对应的状态,设置状态的方法是:

private void setPeerState(long proposedLeader, SyncedLearnerTracker voteSet) {
    ServerState ss = (proposedLeader == self.getId()) ?
            ServerState.LEADING: learningState();
    self.setPeerState(ss);
    if (ss == ServerState.LEADING) {
        leadingVoteSet = voteSet;
    }
}
  1. 如果当前server.myId等于选举出的leader的myId——也就是proposedLeader,则当前server就是leader,设置peerState为ServerState.LEADING
  2. 否则判断当前server的具体角色,因为follower和observer都是learner,需要根据各自的配置来决定该server的状态(配置文件里面的key是peerType,可选的值是participant、observer,如果不配置learnerType默认是LearnerType.PARTICIPANT)
    1. 如果配置的learnerType是LearnerType.PARTICIPANT,则状态为ServerState.FOLLOWING
    2. 否则,状态为ServerState.OBSERVING

准备同步

leader开始工作的入口就是leader.lead方法,这里的leader是Leader的实例,如下图所示

准备的过程是:

  • 创建leader的实例,Leader,构造方法中传入LeaderZooKeeperServer的实例
  • 调用leader.lead
    • 加载ZKDatabase
    • 监听指定的端口(配置的用来监听learner连接请求的端口,配置的第一个冒号后的端口),接收来自follower的请求
    • while循环,检查当前选举的状态是否发生变化需要重新进行选举

同时,follower设置完自己的状态后,也开始进行类似leader的工作

  • 创建follower,也就是Follower的实例,同时创建FollowerZooKeeperServer
  • 建立和leader的连接

进行同步

同步的总体过程如下:

在准备阶段完成follower连接到leader,具备通信状态

  1. leader阻塞等待follower发来的第一个packet

    1. 校验packet类型是否是Leader.FOLLOWERINFO或者Leader.OBSERVERINFO
    2. 读取learner信息
      1. sid
      2. protocolVersion
      3. 校验follower的version不能比leader的version还要新
  2. leader发送packet(Leader.LEADERINFO)给follower
  3. follower收到Leader.LEADERINFO后给leader回复Leader.ACKEPOCH
  4. leader根据follower ack的packet内容来决定同步的策略
    1. lastProcessedZxid == peerLastZxid,leader的zxid和follower的相同
    2. peerLastZxid > maxCommittedLog && !isPeerNewEpochZxid follower超前,删除follower多出的txlog部分
    3. (maxCommittedLog >= peerLastZxid) && (minCommittedLog <= peerLastZxid) follower落后于leader,处于leader的中间 同步(peerLaxtZxid, maxZxid]之间的commitlog给follower
    4. peerLastZxid < minCommittedLog && txnLogSyncEnabled follower落后于leader,使用txlog和commitlog同步给follower
    5. 接下来leader会不断的发送packet给follower,follower处理leader发来的每个packet
  5. 同步完成后follower回复ack给leader
  6. leader、follower进入正式处理客户端请求的while循环

总结

zookeeper为了保证启动后leader和follower的数据一致,在启动的时候就进行数据同步,leader与follower数据传输的端口和leader选举的端口不一样。数据同步完成后就可以接受client的请求进行处理了。

原文地址:https://www.cnblogs.com/sunshine-2015/p/10817333.html

时间: 2024-10-04 23:27:46

zookeeper源码 — 三、集群启动—leader、follower同步的相关文章

Dubbo 源码分析 - 集群容错之 LoadBalance

1.简介 LoadBalance 中文意思为负载均衡,它的职责是将网络请求,或者其他形式的负载"均摊"到不同的机器上.避免集群中部分服务器压力过大,而另一些服务器比较空闲的情况.通过负载均衡,可以让每台服务器获取到适合自己处理能力的负载.在为高负载的服务器分流的同时,还可以避免资源浪费,一举两得.负载均衡可分为软件负载均衡和硬件负载均衡.在我们日常开发中,一般很难接触到硬件负载均衡.但软件负载均衡还是能够接触到一些的,比如 Nginx.在 Dubbo 中,也有负载均衡的概念和相应的实现

zookeeper源码之服务端启动模块

服务端启动模块主要负责解析配置文件,启动服务器监听并执行zookeeper命令. 类图 QuorumPeerMain QuorumPeerMain是服务端主程序,主要功能是解析配置文件,启动zookeeper服务.内部使用QuorumPeerConfig来解析配置文件:使用QuorumPeer来解析命令:使用QuorumPeer来启动zookeeper服务. QuorumPeerConfig 解析properties配置文件zoo.cfg,主要获取一下信息: 配置 说明 dataDir 数据存放

Dubbo 源码分析 - 集群容错之 Directory

1. 简介 前面文章分析了服务的导出与引用过程,从本篇文章开始,我将开始分析 Dubbo 集群容错方面的源码.这部分源码包含四个部分,分别是服务目录 Directory.服务路由 Router.集群 Cluster 和负载均衡 LoadBalance.这几个部分的源码逻辑比较独立,我会分四篇文章进行分析.本篇文章作为集群容错的开篇文章,将和大家一起分析服务目录相关的源码.在进行深入分析之前,我们先来了解一下服务目录是什么.服务目录中存储了一些和服务提供者有关的信息,通过服务目录,服务消费者可获取

Dubbo 源码分析 - 集群容错之 Router

1. 简介 上一篇文章分析了集群容错的第一部分 – 服务目录 Directory.服务目录在刷新 Invoker 列表的过程中,会通过 Router 进行服务路由.上一篇文章关于服务路由相关逻辑没有细致分析,一笔带过了,本篇文章将对此进行详细的分析.首先,先来介绍一下服务目录是什么.服务路由包含一条路由规则,路由规则决定了服务消费者的调用目标,即规定了服务消费者可调用哪些服务提供者.Dubbo 目前提供了三种服务路由实现,分别为条件路由 ConditionRouter.脚本路由 ScriptRo

【一起学源码-微服务】Nexflix Eureka 源码三:EurekaServer启动之EurekaServer上下文EurekaClient创建

前言 上篇文章已经介绍了 Eureka Server 环境和上下文初始化的一些代码,其中重点讲解了environment初始化使用的单例模式,以及EurekaServerConfigure基于接口对外暴露配置方法的设计方式.这一讲就是讲解Eureka Server上下文初始化剩下的内容:Eureka Client初始化. 如若转载 请标明来源:一枝花算不算浪漫 EurekaServer上下文构建之Client EurekaClientConfigure创建过程 因为eurekaSever是集群部

zookeeper 源码(一) 选举和同步数据

前言 在开始阅读代码前我们先来了解一下zk 的大致结构,具体大概要实现的核心功能有那些,心中有个大概的框架阅读代码时再深入其中的细节,就会非常好懂,本人觉得这是一个阅读源码的好方法,可以最快地切入到源码中,先知大体,后知细节. 我们先不考虑权限控制的问题,zk底层使用 zab ,是一种分布式一致性协议,服务的对象是客户端,需要做持久化,根据这些我们可以大致做出以下功能视图. 更加细化 zk 底层细节可以从这几个方面学习 : - master 与 peer , peer 与 peer 之间的消息通

zookeeper源码之服务端

zookeeper服务端主要包括一下几个模块: 1.启动模块. 启动模块 读取配置文件,启动程序.详见:zookeeper源码之服务端启动模块. 原文地址:https://www.cnblogs.com/zhangwanhua/p/8454784.html

zookeeper源码分析之五服务端(集群leader)处理请求流程

leader的实现类为LeaderZooKeeperServer,它间接继承自标准ZookeeperServer.它规定了请求到达leader时需要经历的路径: PrepRequestProcessor -> ProposalRequestProcessor ->CommitProcessor -> Leader.ToBeAppliedRequestProcessor ->FinalRequestProcessor 具体情况可以参看代码: @Override protected v

ZK集群的Leader选举源码阅读

前言 ZooKeeper对Zab协议的实现有自己的主备模型,即Leader和learner(Observer + Follower),有如下几种情况需要进行领导者的选举工作 情形1: 集群在启动的过程中,需要选举Leader 情形2: 集群正常启动后,leader因故障挂掉了,需要选举Leader 情形3: 集群中的Follower数量不足以通过半数检验,Leader会挂掉自己,选举新leader 情景4: 集群正常运行,新增加1个Follower 本篇博文,从这四个方面进行源码的追踪阅读 程序