ZAB协议
概念
在深⼊了解zookeeper之前,很多同学可能会认为zookeeper就是paxos算法的⼀个实现,但事实上,zookeeper并没有完全采⽤paxos算法,⽽是使⽤了⼀种称为Zookeeper Atomic broadcast(ZAB,Zookeeper原⼦消息⼴播协议)的协议作为其数据⼀致性的核⼼算法。
ZAB协议并不像paxos算法那样 是⼀种通⽤的分布式⼀致性算法,它是⼀种特别为zookeeper专⻔设计的⼀种⽀持崩溃恢复的原⼦⼴播协议
在zookeeper中,主要就是依赖ZAB协议来实现分布式数据的⼀致性,基于该协议,Zookeeper实现了⼀种主备模式的系统架构来保持集群中各副本之间的数据的⼀致性,表现形式就是 使⽤⼀个单⼀的主进程来接收并处理客户端的所有事务请求,并采⽤ZAB的原⼦⼴播协议,将服务器数据的状态变更以事务Proposal的形式⼴播到所有的副本进程中,ZAB协议的主备模型架构保证了同⼀时刻集群中只能够有⼀个主进程来⼴播服务器的状态变更,因此能够很好地处理客户端⼤量的并发请求。但是,也要考虑到主进程在任何时候都有可能出现崩溃退出或重启现象,因此,ZAB协议还需要做到当前主进程当出现上述异常情况的时候,依旧能正常⼯作。
ZAB核心
ZAB协议的核⼼是定义了对于那些会改变Zookeeper服务器数据状态的事务请求的处理⽅式
即:所有事务请求必须由⼀个全局唯⼀的服务器来协调处理,这样的服务器被称为leader服务器,余下的服务器则称为Follower服务器,leader服务器负责将⼀个客户端事务请求转化成⼀个事务Proposal(提议),并将该Proposal分发给集群中所有的Follower服务器,之后leader服务器需要等待所有Follower服务器的反馈,⼀旦超过半数的Follower服务器进⾏了正确的反馈后,那么leader就会再次向所有的Follower服务器分发Commit消息,要求其将前⼀个Proposal进⾏提交
ZAB协议介绍
ZAB协议包括两种基本的模式:崩溃恢复和消息⼴播
进⼊崩溃恢复模式:
当整个服务框架启动过程中,或者是leader服务器出现⽹络中断、崩溃退出或重启等异常情况时,ZAB协议就会进⼊崩溃恢复模式,同时选举产⽣新的leader服务器。当选举产⽣了新的leader服务器,同时集群中已经有过半的机器与该leader服务器完成了状态同步之后,ZAB协议就会退出恢复模式,其 中,所谓的状态同步 就是指数据同步,⽤来保证集群中过半的机器能够和leader服务器的数据状态保持⼀致
进⼊消息⼴播模式:
当集群中已经有过半的Follower服务器完成了和leader服务器的状态同步,那么整个服务框架就可以进
⼊消息⼴播模式,当⼀台同样遵守ZAB协议的服务器启动后加⼊到集群中,如果此时集群中已经存在⼀个leader服务器在负责进⾏消息⼴播,那么加⼊的服务器就会⾃觉地进⼊数据恢复模式:找到leader所在的服务器,并与其进⾏数据同步,然后⼀起参与到消息⼴播流程中去。Zookeeper只允许唯⼀的⼀个leader服务器来进⾏事务请求的处理,leader服务器在接收到客户端的事务请求后,会⽣成对应的事务提议并发起⼀轮⼴播协议,⽽如果集群中的其他机器收到客户端的事务请求后,那么这些⾮leader服务器会⾸先将这个事务请求转发给leader服务器。
接下来我们就重点讲解⼀下ZAB协议的消息⼴播过程和崩溃恢复过程
① 消息⼴播
ZAB协议的消息⼴播过程使⽤原⼦⼴播协议,类似于⼀个⼆阶段提交过程,针对客户端的事务请求,leader服务器会为其⽣成对应的事务Proposal,并将其发送给集群中其余所有的机器,然后再分别收集各⾃的选票,最后进⾏事务提交。
在ZAB的⼆阶段提交过程中,移除了中断逻辑,所有的Follower服务器要么正常反馈leader提出的事务Proposal,要么就抛弃leader服务器,同时,ZAB协议将⼆阶段提交中的中断逻辑移除意味着我们可以在过半的Follower服务器已经反馈Ack之后就开始提交事务Proposal了,⽽不需要等待集群中所有的Follower服务器都反馈响应,但是,在这种简化的⼆阶段提交模型下,⽆法处理因leader服务器崩溃退出⽽带来的数据不⼀致问题,因此ZAB采⽤了崩溃恢复模式来解决此问题,另外,整个消息⼴播协议是基于具有FIFO特性的TCP协议来进⾏⽹络通信的,因此能够很容易保证消息⼴播过程中消息接受与发送的顺序性。
在整个消息⼴播过程中,leader服务器会为每个事务请求⽣成对应的Proposal来进⾏⼴播,并且在⼴播事务Proposal之前,leader服务器会⾸先为这个事务Proposal分配⼀个全局单调递增的唯⼀ID,称之为事务ID(ZXID),由于ZAB协议需要保证每个消息严格的因果关系,因此必须将每个事务Proposal按照其ZXID的先后顺序来进⾏排序和处理。
具体的过程:在消息⼴播过程中,leader服务器会为每⼀个Follower服务器都各⾃分配⼀个单独的队列,然后将需要⼴播的事务 Proposal 依次放⼊这些队列中去,并且根据 FIFO策略进⾏消息发送。每⼀个Follower服务器在接收到这个事务Proposal之后,都会⾸先将其以事务⽇志的形式写⼊到本地磁盘中去,并且在成功写⼊后反馈给leader服务器⼀个Ack响应。当leader服务器接收到超过半数Follower的Ack响应后,就会⼴播⼀个Commit消息给所有的Follower服务器以通知其进⾏事务提交,同时leader⾃身也会完成对事务的提交,⽽每⼀个Follower服务器在接收到Commit消息后,也会完成对事务的提交。
② 崩溃恢复
ZAB协议的这个基于原⼦⼴播协议的消息⼴播过程,在正常情况下运⾏⾮常良好,但是⼀旦在leader服务器出现崩溃,或者由于⽹络原因导致leader服务器失去了与过半Follower的联系,那么就会进⼊崩溃恢复模式。在ZAB协议中,为了保证程序的正确运⾏,整个恢复过程结束后需要选举出⼀个新的leader服务器,因此,ZAB协议需要⼀个⾼效且可靠的leader选举算法,从⽽保证能够快速地选举出新的leader,同时,leader选举算法不仅仅需要让leader⾃身知道已经被选举为leader,同时还需要让集群中的所有其他机器也能够快速地感知到选举产⽣出来的新leader服务器。
基本特性
根据上⾯的内容,我们了解到,ZAB协议规定了如果⼀个事务Proposal在⼀台机器上被处理成功,那么应该在所有的机器上都被处理成功,哪怕机器出现故障崩溃。接下来我们看看在崩溃恢复过程中,可能会出现的两个数据不⼀致性的隐患及针对这些情况ZAB协议所需要保证的特性。
ZAB协议需要确保那些已经在leader服务器上提交的事务最终被所有服务器都提交假设⼀个事务在 leader 服务器上被提交了,并且已经得到过半 Folower 服务器的Ack反馈,但是在它将Commit消息发送给所有Follower机器之前,leader服务器挂了,如图所示
图中的消息C2就是⼀个典型的例⼦:在集群正常运⾏过程中的某⼀个时刻,Server1 是 leader 服务器,其先后⼴播了消息 P1、P2、C1、P3 和 C2,其中,当leader服务器将消息C2(C2是Commit OfProposal2的缩写,即提交事务Proposal2)发出后就⽴即崩溃退出了。针对这种情况,ZAB协议就需要确保事务Proposal2最终能够在所有的服务器上都被提交成功,否则将出现不⼀致。
ZAB协议需要确保丢弃那些只在leader服务器上被提出的事务
如果在崩溃恢复过程中出现⼀个需要被丢弃的提案,那么在崩溃恢复结束后需要跳过该事务Proposal,如图所示。
结合上⾯提到的这两个崩溃恢复过程中需要处理的特殊情况,就决定了 ZAB 协议必须设计这样⼀个leader 选举算法:能够确保提交已经被 leader 提交的事务 Proposal,同时丢弃已经被跳过的事务Proposal。针对这个要求,如果让leader选举算法能够保证新选举出来的leader服务器拥有集群中所有机器最⾼编号(即ZXID最⼤)的事务Proposal,那么就可以保证这个新选举出来的leader⼀定具有所有已经提交的提案。更为重要的是,如果让具有最⾼编号事务Proposal 的机器来成为 leader,就可以省去 leader 服务器检查Proposal的提交和丢弃⼯作的这⼀步操作了。
数据同步
完成leader选举之后,在正式开始⼯作(即接收客户端的事务请求,然后提出新的提案)之前,leader服务器会⾸先确认事务⽇志中的所有Proposal是否都已经被集群中过半的机器提交了,即是否完成数据同步。下⾯我们就来看看ZAB协议的数据同步过程。
所有正常运⾏的服务器,要么成为 leader,要么成为 Follower 并和 leader 保持同步。leader服务器需要确保所有的Follower服务器能够接收到每⼀条事务Proposal,并且能够正确地将所有已经提交了的事务Proposal应⽤到内存数据库中去。具体的,leader服务器会为每⼀个Follower服务器都准备⼀个队列,并将那些没有被各Follower服务器同步的事务以Proposal消息的形式逐个发送给Follower服务器,并在每⼀个Proposal消息后⾯紧接着再发送⼀个Commit消息,以表示该事务已经被提交。等到Follower服务器将所有其尚未同步的事务 Proposal 都从 leader 服务器上同步过来并成功应⽤到本地数据库中后,leader服务器就会将该Follower服务器加⼊到真正的可⽤Follower列表中,并开始之后的其他流程。
运⾏时状态分析
在ZAB协议的设计中,每个进程都有可能处于如下三种状态之⼀
所有进程初始状态都是LOOKING状态,此时不存在leader,接下来,进程会试图选举出⼀个新的leader,之后,如果进程发现已经选举出新的leader了,那么它就会切换到FOLLOWING状态,并开始和leader保持同步,处于FOLLOWING状态的进程称为Follower,LEADING状态的进程称为leader,当leader崩溃或放弃领导地位时,其余的Follower进程就会转换到LOOKING状态开始新⼀轮的leader选举。
⼀个Follower只能和⼀个leader保持同步,leader进程和所有的Follower进程之间都通过⼼跳检测机制来感知彼此的情况。若leader能够在超时时间内正常收到⼼跳检测,那么Follower就会⼀直与该leader保持连接,⽽如果在指定时间内leader⽆法从过半的Follower进程那⾥接收到⼼跳检测,或者TCP连接断开,那么leader会放弃当前周期的领导,并转换到LOOKING状态,其他的Follower也会选择放弃这个leader,同时转换到LOOKING状态,之后会进⾏新⼀轮的leader选举
ZAB与paxos的联系和区别
联系:
① 都存在⼀个类似于leader进程的⻆⾊,由其负责协调多个Follower进程的运⾏。
② leader进程都会等待超过半数的Follower做出正确的反馈后,才会将⼀个提议进⾏提交。
③ 在ZAB协议中,每个Proposal中都包含了⼀个epoch值,⽤来代表当前的leader周期,在paxos算法中,同样存在这样的⼀个标识,名字为Ballot。
区别:
paxos算法中,新选举产⽣的主进程会进⾏两个阶段的⼯作,第⼀阶段称为读阶段,新的主进程和其他进程通信来收集主进程提出的提议,并将它们提交。第⼆阶段称为写阶段,当前主进程开始提出⾃⼰的提议。
ZAB协议在paxos基础上添加了同步阶段,此时,新的leader会确保 存在过半的Follower已经提交了之前的leader周期中的所有事务Proposal。这⼀同步阶段的引⼊,能够有效地保证leader在新的周期中提出事务Proposal之前,所有的进程都已经完成了对之前所有事务Proposal的提交。
总的来说,ZAB协议和paxos算法的本质区别在于,两者的设计⽬标不太⼀样,ZAB协议主要⽤于构建⼀个⾼可⽤的分布式数据主备系统,⽽paxos算法则⽤于构建⼀个分布式的⼀致性状态机系统
服务器⻆⾊
leader
leader服务器是Zookeeper集群⼯作的核⼼,其主要⼯作有以下两个:
(1) 事务请求的唯⼀调度和处理者,保证集群事务处理的顺序性。
(2) 集群内部各服务器的调度者。
1.请求处理链
使⽤责任链来处理每个客户端的请求是Zookeeper的特⾊,leader服务器的请求处理链如下:
可以看到,从prepRequestProcessor到FinalRequestProcessor前后⼀共7个请求处理器组成了leader服务器的请求处理链
(1) PrepRequestProcessor。请求预处理器,也是leader服务器中的第⼀个请求处理器。在Zookeeper中,那些会改变服务器状态的请求称为事务请求(创建节点、更新数据、删除节点、创建会话等),PrepRequestProcessor能够识别出当前客户端请求是否是事务请求。对于事务请求,PrepRequestProcessor处理器会对其进⾏⼀系列预处理,如创建请求事务头、事务体、会话检查、ACL检查和版本检查等。
(2) ProposalRequestProcessor。事务投票处理器。也是leader服务器事务处理流程的发起者,对于⾮事务性请求,ProposalRequestProcessor会直接将请求转发到CommitProcessor处理器,不再做任何处理,⽽对于事务性请求,处理将请求转发到CommitProcessor外,还会根据请求类型创建对应的Proposal提议,并发送给所有的Follower服务器来发起⼀次集群内的事务投票。同时,ProposalRequestProcessor还会将事务请求交付给SyncRequestProcessor进⾏事务⽇志的记录。
(3) SyncRequestProcessor。事务⽇志记录处理器。⽤来将事务请求记录到事务⽇志⽂件中,同时会触发Zookeeper进⾏数据快照。
(4) AckRequestProcessor。负责在SyncRequestProcessor完成事务⽇志记录后,向Proposal的投票收集器发送ACK反馈,以通知投票收集器当前服务器已经完成了对该Proposal的事务⽇志记录。
(5) CommitProcessor。事务提交处理器。对于⾮事务请求,该处理器会直接将其交付给下⼀级处理器处理;对于事务请求,其会等待集群内针对Proposal的投票结果,直到该Proposal可被提交,利⽤ CommitProcessor,每个服务器都可以很好地控制对事务请求的顺序处理。
(6) ToBeCommitProcessor。该处理器有⼀个toBeApplied队列,⽤来存储那些已经被CommitProcessor处理过的可被提交的Proposal。其会将这些请求交付给FinalRequestProcessor处理器处理,待其处理完后,再将其从toBeApplied队列中移除。
(7) FinalRequestProcessor。⽤来进⾏客户端请求返回之前的操作,包括创建客户端请求的响应,针对事务请求,该处理器还会负责将事务应⽤到内存数据库中。
Follower
Follower服务器是Zookeeper集群状态中的跟随者,其主要⼯作有以下三个:
(1) 处理客户端⾮事务性请求(读取数据),转发事务请求给leader服务器。
(2) 参与事务请求Proposal的投票。
(3) 参与leader选举投票。
和leader⼀样,Follower也采⽤了责任链模式组装的请求处理链来处理每⼀个客户端请求,由于不需要对事务请求的投票处理,因此Follower的请求处理链会相对简单,其处理链如下
和 leader 服务器的请求处理链最⼤的不同点在于,Follower 服务器的第⼀个处理器换成了FollowerRequestProcessor处理器,同时由于不需要处理事务请求的投票,因此也没有了ProposalRequestProcessor处理器。
(1) FollowerRequestProcessor
其⽤作识别当前请求是否是事务请求,若是,那么Follower就会将该请求转发给leader服务器,leader服务器在接收到这个事务请求后,就会将其提交到请求处理链,按照正常事务请求进⾏处理。
(2) SendAckRequestProcessor
其承担了事务⽇志记录反馈的⻆⾊,在完成事务⽇志记录后,会向leader服务器发送ACK消息以表明⾃身完成了事务⽇志的记录⼯作
Observer
Observer是ZooKeeper⾃3.3.0版本开始引⼊的⼀个全新的服务器⻆⾊。从字⾯意思看,该服务器充当了⼀个观察者的⻆⾊——其观察ZooKeeper集群的最新状态变化并将这些状态变更同步过来。
Observer服务器在⼯作原理上和Follower基本是⼀致的,对于⾮事务请求,都可以进⾏独⽴的处理,⽽对于事务请求,则会转发给leader服务器进⾏处理。和Follower唯⼀的区别在于,Observer不参与任何形式的投票,包括事务请求Proposal的投票和leader选举投票。简单地讲,Observer服务器只提供⾮事务服务,通常⽤于在不影响集群事务处理能⼒的前提下提升集群的⾮事务处理能⼒。
另外,Observer的请求处理链路和Follower服务器也⾮常相近,其处理链如下
另外需要注意的⼀点是,虽然在图中可以看到,Observer 服务器在初始化阶段会将SyncRequestProcessor处理器也组装上去,但是在实际运⾏过程中,leader服务器不会将事务请求的投票发送给Observer服务器。
服务器启动
服务端整体架构图
Zookeeper服务器的启动,⼤致可以分为以下五个步骤
- 配置⽂件解析
- 初始化数据管理器
- 初始化⽹络I/O管理器
- 数据恢复
- 对外服务
单机版服务器启动
单机版服务器的启动其流程图如下
上图的过程可以分为预启动和初始化过程。
1. 预启动
- 统⼀由QuorumPeerMain作为启动类。⽆论单机或集群,在zkServer.cmd和zkServer.sh中都配置了QuorumPeerMain作为启动⼊⼝类。
- 解析配置⽂件zoo.cfg。zoo.cfg配置运⾏时的基本参数,如tickTime、dataDir、clientPort等参数。
- 创建并启动历史⽂件清理器DatadirCleanupManager。对事务⽇志和快照数据⽂件进⾏定时清理。
- 判断当前是集群模式还是单机模式启动。若是单机模式,则委托给ZooKeeperServerMain进⾏启动。
- 再次进⾏配置⽂件zoo.cfg的解析。
- 创建服务器实例ZooKeeperServer。Zookeeper服务器⾸先会进⾏服务器实例的创建,然后对该服务器实例进⾏初始化,包括连接器、内存数据库、请求处理器等组件的初始化。
2. 初始化
- 创建服务器统计器ServerStats。ServerStats是Zookeeper服务器运⾏时的统计器。
- 创建Zookeeper数据管理器FileTxnSnapLog。FileTxnSnapLog是Zookeeper上层服务器和底层数据存储之间的对接层,提供了⼀系列操作数据⽂件的接⼝,如事务⽇志⽂件和快照数据⽂件。Zookeeper根据zoo.cfg⽂件中解析出的快照数据⽬录dataDir和事务⽇志⽬录dataLogDir来创建FileTxnSnapLog。
- 设置服务器tickTime和会话超时时间限制。
- 创建ServerCnxnFactory。通过配置系统属性zookeper.serverCnxnFactory来指定使⽤Zookeeper⾃⼰实现的NIO还是使⽤Netty框架作为Zookeeper服务端⽹络连接⼯⼚。
- 初始化ServerCnxnFactory。Zookeeper会初始化Thread作为ServerCnxnFactory的主线程,然后再初始化NIO服务器。
- 启动ServerCnxnFactory主线程。进⼊Thread的run⽅法,此时服务端还不能处理客户端请求。
- 恢复本地数据。启动时,需要从本地快照数据⽂件和事务⽇志⽂件进⾏数据恢复。
- 创建并启动会话管理器。Zookeeper会创建会话管理器SessionTracker进⾏会话管理。
- 初始化Zookeeper的请求处理链。Zookeeper请求处理⽅式为责任链模式的实现。会有多个请求处理器依次处理⼀个客户端请求,在服务器启动时,会将这些请求处理器串联成⼀个请求处理链。
- 注册JMX服务。Zookeeper会将服务器运⾏时的⼀些信息以JMX的⽅式暴露给外部。
- 注册Zookeeper服务器实例。将Zookeeper服务器实例注册给ServerCnxnFactory,之后Zookeeper就可以对外提供服务。
⾄此,单机版的Zookeeper服务器启动完毕。
集群服务器启动
单机和集群服务器的启动在很多地⽅是⼀致的,其流程图如下:
上图的过程可以分为预启动、初始化、leader选举、leader与Follower启动期交互、leader与Follower启动等过程
1. 预启动
- 统⼀由QuorumPeerMain作为启动类。
- 解析配置⽂件zoo.cfg。
- 创建并启动历史⽂件清理器DatadirCleanupFactory。
- 判断当前是集群模式还是单机模式的启动。在集群模式中,在zoo.cfg⽂件中配置了多个服务器地址,可以选择集群启动。
2. 初始化
- 创建ServerCnxnFactory。
- 初始化ServerCnxnFactory。
- 创建Zookeeper数据管理器FileTxnSnapLog。
- 创建QuorumPeer实例。Quorum是集群模式下特有的对象,是Zookeeper服务器实例(ZooKeeperServer)的托管者,QuorumPeer代表了集群中的⼀台机器,在运⾏期间,QuorumPeer会不断检测当前服务器实例的运⾏状态,同时根据情况发起leader选举。
- 创建内存数据库ZKDatabase。ZKDatabase负责管理ZooKeeper的所有会话记录以及DataTree和事务⽇志的存储。
- 初始化QuorumPeer。将核⼼组件如FileTxnSnapLog、ServerCnxnFactory、ZKDatabase注册到QuorumPeer中,同时配置QuorumPeer的参数,如服务器列表地址、leader选举算法和会话超时时间限制等。
- 恢复本地数据。
- 启动ServerCnxnFactory主线程
3. leader选举
- 初始化leader选举。
集群模式特有,Zookeeper⾸先会根据⾃身的服务器ID(SID)、最新的 ZXID(lastLoggedZxid)和当前的服务器epoch(currentEpoch)来⽣成⼀个初始化投票,在初始化过程中,每个服务器都会给⾃⼰投票。然后,根据zoo.cfg的配置,创建相应leader选举算法实现,Zookeeper提供了三种默认算法(leaderElection、AuthFastleaderElection、FastleaderElection),可通过zoo.cfg中的electionAlg属性来指定,但现只⽀持FastleaderElection选举算法。在初始化阶段,Zookeeper会创建leader选举所需的⽹络I/O层QuorumCnxManager,同时启动对leader选举端⼝的监听,等待集群中其他服务器创建连接。- 注册JMX服务。
- 检测当前服务器状态
运⾏期间,QuorumPeer会不断检测当前服务器状态。在正常情况下,Zookeeper服务器的状态在LOOKING、LEADING、FOLLOWING/OBSERVING之间进⾏切换。在启动阶段,QuorumPeer的初始状态是LOOKING,因此开始进⾏leader选举。- leader选举
ZooKeeper的leader选举过程,简单地讲,就是⼀个集群中所有的机器相互之间进⾏⼀系列投票,选举产⽣最合适的机器成为leader,同时其余机器成为Follower或是Observer的集群机器⻆⾊初始化过程。关于leader选举算法,简⽽⾔之,就是集群中哪个机器处理的数据越新(通常我们根据每个服务器处理过的最⼤ZXID来⽐较确定其数据是否更新),其越有可能成为leader。当然,如果集群中的所有机器处理的ZXID⼀致的话,那么SID最⼤的服务器成为leader,其余机器称为Follower和Observer
4. leader和Follower启动期交互过程
到这⾥为⽌,ZooKeeper已经完成了leader选举,并且集群中每个服务器都已经确定了⾃⼰的⻆⾊——通常情况下就分为 leader 和 Follower 两种⻆⾊。下⾯我们来对 leader和Follower在启动期间的交互进⾏介绍,其⼤致交互流程如图所示。
- 创建leader服务器和Follower服务器。完成leader选举后,每个服务器会根据⾃⼰服务器的⻆⾊创建相应的服务器实例,并进⼊各⾃⻆⾊的主流程。
- leader服务器启动Follower接收器LearnerCnxAcceptor。运⾏期间,leader服务器需要和所有其余的服务器(统称为Learner)保持连接以确集群的机器存活情况,LearnerCnxAcceptor负责接收所有⾮leader服务器的连接请求。
- Learner服务器开始和leader建⽴连接。所有Learner会找到leader服务器,并与其建⽴连接。
- leader服务器创建LearnerHandler。leader接收到来⾃其他机器连接创建请求后,会创建⼀个
LearnerHandler实例,每个LearnerHandler实例都对应⼀个leader与Learner服务器之间的连接,其负责leader和Learner服务器之间⼏乎所有的消息通信和数据同步。 - 向leader注册。Learner完成和leader的连接后,会向leader进⾏注册,即将Learner服务器的基本信息(LearnerInfo),包括SID和ZXID,发送给leader服务器。
- leader解析Learner信息,计算新的epoch。leader接收到Learner服务器基本信息后,会解析出该Learner的SID和ZXID,然后根据ZXID解析出对应的epoch_of_learner,并和当前leader服务器的epoch_of_leader进⾏⽐较,如果该Learner的epoch_of_learner更⼤,则更新leader的 epoch_of_leader = epoch_of_learner + 1。然后LearnHandler进⾏等待,直到过半Learner已经向leader进⾏了注册,同时更新了epoch_of_leader后,leader就可以确定当前集群的epoch了。
- 发送leader状态。计算出新的epoch后,leader会将该信息以⼀个leaderINFO消息的形式发送给Learner,并等待Learner的响应。
- Learner发送ACK消息。Learner接收到leaderINFO后,会解析出epoch和ZXID,然后向leader
反馈⼀个ACKEPOCH响应。 - 数据同步。leader收到Learner的ACKEPOCH后,即可进⾏数据同步。
- 启动leader和Learner服务器。当有过半Learner已经完成了数据同步,那么leader和Learner服务器实例就可以启动了
- leader和Follower启动
- 创建启动会话管理器。
- 初始化Zookeeper请求处理链,集群模式的每个处理器也会在启动阶段串联请求处理链。
- 注册JMX服务。
⾄此,集群版的Zookeeper服务器启动完毕
leader选举
leader选举概述
leader选举是zookeeper最重要的技术之⼀,也是保证分布式数据⼀致性的关键所在。当Zookeeper集群中的⼀台服务器出现以下两种情况之⼀时,需要进⼊leader选举。
(1) 服务器初始化启动。
(2) 服务器运⾏期间⽆法和leader保持连接。
下⾯就两种情况进⾏分析讲解。
服务器启动时期的leader选举
若进⾏leader选举,则⾄少需要两台机器,这⾥选取3台机器组成的服务器集群为例。在集群初始化阶段,当有⼀台服务器Server1启动时,其单独⽆法进⾏和完成leader选举,当第⼆台服务器Server2启动时,此时两台机器可以相互通信,每台机器都试图找到leader,于是进⼊leader选举过程。选举过程如下
(1) 每个Server发出⼀个投票
由于是初始情况,Server1(假设myid为1)和Server2假设myid为2)都会将⾃⼰作为leader服务器来进⾏投票,每次投票会包含所推举的服务器的myid和ZXID,使⽤(myid, ZXID)来表示,此时Server1的投票为(1, 0),Server2的投票为(2, 0),然后各⾃将这个投票发给集群中其他机器
(2) 接受来⾃各个服务器的投票
集群的每个服务器收到投票后,⾸先判断该投票的有效性,如检查是否是本轮投票、是否来⾃
LOOKING状态的服务器。
(3) 处理投票
针对每⼀个投票,服务器都需要将别⼈的投票和⾃⼰的投票进⾏PK,PK规则如下
现在我们来看Server1和Server2实际是如何进⾏投票处理的。对于Server1来说,它⾃⼰的投票是(1,0),⽽接收到的投票为(2,0)。⾸先会对⽐两者的ZXID,因为都是0,所以⽆法决定谁是leader。接下来会对⽐两者的myid,很显然,Server1发现接收到的投票中的myid是2,⼤于⾃⼰,于是就会更新⾃⼰的投票为(2,0),然后重新将投票发出去。⽽对于Server2来说,不需要更新⾃⼰的投票
(4) 统计投票
那么,当Server1和Server2都收到相同的投票信息(2,0)的时候,即认为已经选出了leader。
每次投票后,服务器都会统计所有投票,判断是否已经有过半的机器接收到相同的投票信息。对于Server1和Server2服务器来说,都统计出集群中已经有两台机器接受了(2,0)这个投票信息。这⾥我们需要对“过半”的概念做⼀个简单的介绍。所谓“过半”就是指⼤于集群机器数量的⼀半,即⼤于或等于(n/2+1)。对于这⾥由3台机器构成的集群,⼤于等于2台即为达到“过半”要求。
(5) 改变服务器状态
⼀旦确定了 leader,每个服务器就会更新⾃⼰的状态:如果是 Follower,那么就变更为FOLLOWING,如果是leader,那么就变更为LEADING。
服务器运⾏时期的leader选举
在ZooKeeper集群正常运⾏过程中,⼀旦选出⼀个leader,那么所有服务器的集群⻆⾊⼀般不会再发⽣变化——也就是说,leader服务器将⼀直作为集群的leader,即使集群中有⾮leader机器挂了或是有新机器加⼊集群也不会影响leader。但是⼀旦leader所在的机器挂了,那么整个集群将暂时⽆法对外服务,⽽是进⼊新⼀轮的leader选举。服务器运⾏期间的leader选举和启动时期的leader选举基本过程是⼀致的。
我们还是假设当前正在运⾏的 ZooKeeper 机器由 3 台机器组成,分别是 Server1、Server2和Server3,当前的leader是Server2。假设在某⼀个瞬间,leader挂了,这个时候便开始了leader选举。
(1) 变更状态
leader挂后,余下的⾮Observer服务器都会将⾃⼰的服务器状态变更为LOOKING,然后开始进⼊leader选举过程。
(2) 每个Server会发出⼀个投票
在运⾏期间,每个服务器上的ZXID可能不同,此时假定Server1的ZXID为123,Server3的ZXID为122;在第⼀轮投票中,Server1和Server3都会投⾃⼰,产⽣投票(1, 123),(3, 122),然后各⾃将投票发送给集群中所有机器。
(3) 接收来⾃各个服务器的投票,与启动时过程相同
(4) 处理投票。与启动时过程相同,此时,Server1将会成为leader
(5) 统计投票。与启动时过程相同
(6) 改变服务器的状态。与启动时过程相同
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。