【易客吧】_全网激活码总代_激活码商城

您现在的位置是:首页 > 热门资讯 > 正文

热门资讯

ZooKeeper 配置深潜:了解内部机制并微调设置 (zookeeper的主要功能)

用户投稿2024-04-14热门资讯20

简介

ZooKeeper 是一个分布式协调服务,用于管理分布式系统中节点之间的通信和状态。它提供了数据存储、分布式锁和通知等功能。了解 ZooKeeper 的内部机制和配置设置对于确保其在您的系统中平稳运行至关重要。

ZooKeeper 的主要功能

ZooKeeper 提供以下关键功能:
  • 数据存储: 存储和管理节点之间共享的数据。
  • 分布式锁: 协调对共享资源的访问。
  • 通知: 当数据发生变化时通知客户端。
  • 故障转移: 在节点发生故障时提供容错能力。

配置ZooKeeper

ZooKeeper 的配置分为两类:
  • 集群配置: 定义集群的行为,例如 quorum 大小和投票算法。
  • 客户端配置: 定义客户端与集群交互的方式。

集群配置

集群配置存储在 ZooKeeper 数据存储中的 `/zookeeper/config` 节点中。关键配置设置包括:
  • tickTime: ZooKeeper 中时间的基本单位,以毫秒为单位。
  • initLimit: 在选举过程中,候选服务器等待新消息到达的最大时间(以交易量为单位)。
  • syncLimit: 选举过程中,领导者等待 follower 同步事务的最大时间(以交易量为单位)。
  • dataDir: 存储 ZooKeeper 数据的目录。
  • clientPort: 客户端连接到 ZooKeeper 服务器的端口。

客户端配置

客户端配置存储在 Java 属性文件中,通常称为 `zoo.cfg`。关键配置设置包括:
  • connectString: 集群中 ZooKeeper 服务器的地址和端口。
  • timeout: 客户端连接到 ZooKeeper 服务器的超时时间(以毫秒为单位)。
  • sessionTimeout: 客户端与 ZooKeeper 服务器之间的会话超时时间(以毫秒为单位)。

微调设置

微调 ZooKeeper 配置可以显著提高集群的性能和稳定性。以下是一些建议:
  • 调整 tickTime: 较小的 tickTime 减少了选举过程中所需的等待时间,提高了系统的反应能力。
  • 增加 initLimit 和 syncLimit: 较高的限制值允许 follower 在选举过程中有更多时间同步事务,提高了系统稳定性。
  • 选择合适的 dataDir: 使用 SSD 或 RAID 等性能良好的存储设备来存储 ZooKeeper 数据,提高读写速度。
  • 优化客户端超时设置: 根据应用程序的需要调整客户端超时时间,防止不必要的连接失败。
  • 启用安全措施: 使用安全协议(如 SSL)和身份验证来保护集群免受未经授权的访问。

监控和故障排除

监控 ZooKeeper 集群至关重要,以便及时发现和解决问题。可以通过以下方法进行监控:
  • 使用 ZooKeeper 提供的内置监控工具,如 `zkServer.sh status`。
  • 使用第三方监控工具,如 Prometheus 和 Grafana。
  • 查看 ZooKeeper 日志,查找异常或错误消息。
如果 ZooKeeper 集群出现问题,可以使用以下故障排除步骤:
  • 检查服务器是否运行并响应。
  • 检查网络连接性。
  • 查看日志文件以查找错误。
  • 检查集群配置是否正确。
  • 根据需要重启服务器。

结论

了解 ZooKeeper 配置的内部机制对于优化分布式系统的性能和稳定性至关重要。通过仔细调整集群和客户端设置,您可以确保 ZooKeeper 平稳可靠地运行。通过定期监控和故障排除,您可以主动识别和解决问题,确保 ZooKeeper 集群的持续可用性。

Zookpeer是什么?在系统中如何起作用?

Zookeeper分布式服务框架是Apache Hadoop的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题。 如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。 我们先看看它都提供了哪些功能,然后再看看使用它的这些功能能做点什么。 简单的说,zookeeper=文件系统+通知机制。 Zookeeper维护一个类似文件系统的数据结构: 每个子目录项如 NameService 都被称作为 znode,和文件系统一样,我们能够自由的增加、删除znode,在一个znode下增加、删除子znode,唯一的不同在于znode是可以存储数据的。 客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、被删除、子目录节点增加删除)时,zookeeper会通知客户端。 这个似乎最简单,在zookeeper的文件系统里创建一个目录,即有唯一的path。 在我们使用tborg无法确定上游程序的部署机器时即可与下游程序约定好path,通过path即能互相探索发现,不见不散了。 程序总是需要配置的,如果程序分散部署在多台机器上,要逐个改变配置就变得困难。 可以把这些配置全部放到zookeeper上去,保存在 Zookeeper 的某个目录节点中,然后所有相关应用程序对这个目录节点进行监听,一旦配置信息发生变化,每个应用程序就会收到 Zookeeper 的通知,然后从 Zookeeper 获取新的配置信息应用到系统中就好。 集群管理无在乎两点:是否有机器退出和加入、选举master。 对于第一点,所有机器约定在父目录GroupMembers下创建临时目录节点,然后监听父目录节点的子节点变化消息。 一旦有机器挂掉,该机器与 zookeeper的连接断开,其所创建的临时目录节点被删除,所有其他机器都收到通知:某个兄弟目录被删除,于是,所有人都知道:它下船了。 当然又会有新机器加入,也是类似:所有机器收到通知---新兄弟目录加入,highcount又有了,有人上船了。 对于第二点,我们假设机器创建临时顺序编号目录节点,每次选取编号最小的机器作为master就好。 有了zookeeper的一致性文件系统,锁的问题变得容易。 锁服务可以分为两类,一个是保持独占,另一个是控制时序。 对于第一类,我们将zookeeper上的一个znode看作是一把锁,通过createznode的方式来实现。 所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。 厕所有言:来也冲冲,去也冲冲,用完删除掉自己创建的distribute_lock 节点就释放出锁。 对于第二类, /distribute_lock 已经预先存在,所有客户端在它下面创建临时顺序编号目录节点,和选master一样,编号最小的获得锁,用完删除,依次方便。 两种类型的队列: 1、 同步队列,当一个队列的成员都聚齐时,这个队列才可用,否则一直等待所有成员到达。 2、队列按照 FIFO 方式进行入队和出队操作。 第一类,在约定目录下创建临时目录节点,监听节点数目是否是我们要求的数目。 第二类,和分布式锁服务中的控制时序场景基本原理一致,入列有编号,出列按编号。 Zookeeper中的角色主要有以下三类: 系统模型如图所示: Zookeeper的核心是原子广播,这个机制保证了各个Server之间的同步。 实现这个机制的协议叫做Zab协议。 Zab协议有两种模式,它们分 别是恢复模式(选主)和广播模式(同步)。 当服务启动或者在领导者崩溃后,Zab就进入了恢复模式,当领导者被选举出来,且大多数Server完成了和 leader的状态同步以后,恢复模式就结束了。 状态同步保证了leader和Server具有相同的系统状态。 为了保证事务的顺序一致性,zookeeper采用了递增的事务id号(zxid)来标识事务。 所有的提议(proposal)都在被提出的时候加上 了zxid。 实现中zxid是一个64位的数字,它高32位是epoch用来标识leader关系是否改变,每次一个leader被选出来,它都会有一个 新的epoch,标识当前属于那个leader的统治时期。 低32位用于递增计数。 每个Server在工作过程中有三种状态: 当leader崩溃或者leader失去大多数的follower,这时候zk进入恢复模式,恢复模式需要重新选举出一个新的leader,让所有的 Server都恢复到一个正确的状态。 Zk的选举算法有两种:一种是基于basic paxos实现的,另外一种是基于fast paxos算法实现的。 系统默认的选举算法为fast paxos。 先介绍basic paxos流程: 通过流程分析我们可以得出:要使Leader获得多数Server的支持,则Server总数必须是奇数2n+1,且存活的Server的数目不得少于n+1. 选完leader以后,zk就进入状态同步过程。 Leader主要有三个功能: PING消息是指Learner的心跳信息;REQUEST消息是Follower发送的提议信息,包括写请求及同步请求;ACK消息是 Follower的对提议的回复,超过半数的Follower通过,则commit该提议;REVALIDATE消息是用来延长SESSION有效时间。 Leader的工作流程简图如下所示,在实际实现中,流程要比下图复杂得多,启动了三个线程来实现功能。 Follower主要有四个功能: Follower的消息循环处理如下几种来自Leader的消息: Follower的工作流程简图如下所示,在实际实现中,Follower是通过5个线程来实现功能的。P.S. 这篇文章是本人对网络上关于ZK的文章阅读之后整理所得,作为入门级的了解。 个人觉得看了上面的内容就能基本了解Zookeeper的作用了,后面在结合实际项目使用加深自己的了解。 end

Zookeeper 理论基础

ZooKeeper 由雅虎研究院开发,后来捐赠给了 Apache。ZooKeeper 是一个开源的分布式应用程序协调服务器,其为分布式系统提供一致性服务。其一致性是通过基于 Paxos 算法的ZAB 协议完成的。其主要功能包括:配置维护、域名服务、分布式同步、集群管理等。 zookeeper 的官网:

zk 是如何保证分布式系统的一致性的呢?是因为 zk 具有以下几方面的特点:

对于zk 理论的学习,最重要也是最难的知识点就是 Paxos 算法。所以我们首先学习 Paxos算法。

Paxos 算法是莱斯利·兰伯特(Leslie Lamport)1990 年提出的一种基于消息传递的、具有高容错性的一致性算法。Google Chubby 的作者 Mike Burrows 说过,世上只有一种一致性算法, 那就是 Paxos,所有其他一致性算法都是 Paxos 算法的不完整版。Paxos 算法是一种公认的晦涩难懂的算法,并且工程实现上也具有很大难度。较有名的 Paxos 工程实现有Google Chubby、ZAB、微信的 PhxPaxos 等。 Paxos 算法是用于解决什么问题的呢?Paxos 算法要解决的问题是,在分布式系统中如何就某个决议达成一致。

拜占庭将军问题是由 Paxos 算法作者莱斯利·兰伯特提出的点对点通信中的基本问题。该问题要说明的含义是,在不可靠信道上试图通过消息传递的方式达到一致性是不可能的。所以,Paxos 算法的前提是不存在拜占庭将军问题,即信道是安全的、可靠的,集群节点间传递的消息是不会被篡改的。

一般情况下,分布式系统中各个节点间采用两种通讯模型:共享内存(Shared Memory)、消息传递(Messages Passing)。而 Paxos 是基于消息传递通讯模型的。

在 Paxos 算法中有三种角色,分别具有三种不同的行为。但很多时候,一个进程可能同时充当着多种角色。

Paxos 算法的一致性主要体现在以下几点:

Paxos 对于提案的提交算法有两种方案,2PC 与 3PC。

它们的区别主要就在于 accept 阶段中是否包含 commit 功能。具体看下面的描述。

Paxos 算法的 3PC 执行过程划分为三个阶段:准备阶段 prepare、接受阶段 accept,与提交阶段 commit。

若提案者接收到的反馈数量超过了半数,则其会向外广播两类信息:

2PC 与 3PC 的区别是,在提案者接收到超过半数的表决者对于 parepare 阶段的反馈后,其会向所有表决者发送真正的提案 proposal。当表决者接受到 proposal 后就直接将其同步到了本地,不用再等待 commit 消息了。

那么,为什么不直接使用 2PC,而要使用 3PC 呢?是因为 2PC 中存在着较多的弊端(这里就不再展开来说了)。所以很多 Paxos 工业实现使用的都是 3PC 提交。但 2PC 提交的效率要高于 3PC 提交,所以在保证不出问题的情况下,是可以使用 2PC 提交的。

前面所述的Paxos 算法在实际工程应用过程中,根据不同的实际需求存在诸多不便之处, 所以也就出现了很多对于基本 Paxos 算法的优化算法,以对 Paxos 算法进行改进,例如,Multi Paxos、Fast Paxos、EPaxos。

例如,Paxos 算法存在“活锁问题”,Fast Paxos 算法对 Paxos 算法进行了改进:只允许一个进程提交提案,即该进程具有对 N 的唯一操作权。该方式解决了“活锁”问题。

ZAB ,Zookeeper Atomic Broadcast,zk 原子消息广播协议,是专为 ZooKeeper 设计的一种支持崩溃恢复的原子广播协议,在 Zookeeper 中,主要依赖 ZAB 协议来实现分布式数据一致性。

Zookeeper 使用一个单一主进程来接收并处理客户端的所有事务请求,即写请求。当服务器数据的状态发生变更后,集群采用 ZAB 原子广播协议,以事务提案 Proposal 的形式广播到所有的副本进程上。ZAB 协议能够保证一个全局的变更序列,即可以为每一个事务分配一个全局的递增编号 xid。

当 Zookeeper 客户端连接到 Zookeeper 集群的一个节点后,若客户端提交的是读请求, 那么当前节点就直接根据自己保存的数据对其进行响应;如果是写请求且当前节点不是Leader,那么节点就会将该写请求转发给 Leader,Leader 会以提案的方式广播该写操作,只要有超过半数节点同意该写操作,则该写操作请求就会被提交。然后 Leader 会再次广播给所有订阅者,即 Learner,通知它们同步数据。

ZAB 协议是 Paxos 算法的一种工业实现算法。但两者的设计目标不太一样。ZAB 协议主要用于构建一个高可用的分布式数据主从系统,即 Follower 是 Leader 的从机,Leader 挂了, 马上就可以选举出一个新的 Leader,但平时它们都对外提供服务。而 Fast Paxos 算法则是用于构建一个分布式一致性状态机系统,确保系统中各个节点的状态都是一致的。

另外,ZAB 还使用 Google 的 Chubby 算法作为分布式锁的实现,而 Google 的 Chubby 也是 Paxos 算法的应用。

zk 集群对于事务请求的处理是 Fast Paxos 算法的体现,即只允许 Leader 提出提案。其属于 3PC 提交。

但 Leader 选举是 Paxos 算法的体现,因为 Leader 宕机后,所有 Follower 均可提交提案, 它们在最初都是“我选我”。其属于 2PC 提交。

为了避免 Zookeeper 的单点问题,zk 也是以集群的形式出现的。zk 集群中的角色主要有以下三类:

ZooKeeper 配置深潜:了解内部机制并微调设置 (zookeeper的主要功能) 第1张

Learner:学习者,同步者。 Learner = Follower + Observer QuorumPeer = Participant = Leader + Follower

在 ZAB 中有三个很重要的数据:

ZAB 协议中对zkServer 的状态描述有三种模式。这三种模式并没有十分明显的界线,它们相互交织在一起。

zk 集群中的每一台主机,在不同的阶段会处于不同的状态。每一台主机具有四种状态。

在集群启动过程中,或 Leader 宕机后,集群就进入了恢复模式。恢复模式中最重要的阶段就是 Leader 选举。

A、serverId 这是zk 集群中服务器的唯一标识,也称为 sid,其实质就是 zk 中配置的 myid。例如, 有三个 zk 服务器,那么编号分别是 1,2,3。 B、 逻辑时钟 逻辑时钟,Logicalclock,是一个整型数,该概念在选举时称为 logicalclock,而在选举结束后称为epoch。即 epoch 与 logicalclock 是同一个值,在不同情况下的不同名称。

在集群启动过程中的 Leader 选举过程(算法)与 Leader 断连后的 Leader 选举过程稍微有一些区别,基本相同。

A、集群启动中的 Leader 选举

对于 Server1 而言,它的投票是(1, 0),接收 Server2 的投票为(2, 0)。其首先会比较两者的 ZXID,均为 0,再比较 myid,此时 Server2 的 myid 最大,于是 Server1 更新自己的投票为(2, 0),然后重新投票。对于 Server2 而言,其无须更新自己的投票,只是再次向集群中所有主机发出上一次投票信息即可。 (4) 统计投票。每次投票后,服务器都会统计投票信息,判断是否已经有过半机器接受到相同的投票信息。对于 Server1、Server2 而言,都统计出集群中已经有两台主机接受了(2, 0)的投票信息,此时便认为已经选出了新的 Leader,即 Server2。 (5) 改变服务器状态。一旦确定了 Leader,每个服务器就会更新自己的状态,如果是Follower,那么就变更为 FOLLOWING,如果是 Leader,就变更为 LEADING。 (6) 添加主机。在新的 Leader 选举出来后 Server3 启动,其想发出新一轮的选举。但由于当前集群中各个主机的状态并不是 LOOKING,而是各司其职的正常服务,所以其只能是以Follower 的身份加入到集群中。

B、 宕机后的 Leader 选举 在 Zookeeper 运行期间,Leader 与非 Leader 服务器各司其职,即便当有非 Leader 服务器宕机或新加入时也不会影响 Leader。但是若 Leader 服务器挂了,那么整个集群将暂停对外服务,进入新一轮的 Leader 选举,其过程和启动时期的 Leader 选举过程基本一致。

前面我们说过,恢复模式具有两个阶段:Leader 选举与初始化同步。当完成 Leader 选举后,此时的 Leader 还是一个准 Leader,其要经过初始化同步后才能变为真正的 Leader。

具体过程如下:

当集群中的 Learner 完成了初始化状态同步,那么整个 zk 集群就进入到了正常工作模式了。 如果集群中的 Learner 节点收到客户端的事务请求,那么这些 Learner 会将请求转发给Leader 服务器。然后再执行如下的具体过程:

Observer 数量并不是越多越好,一般与 Follower 数量相同。因为 Observer 数量的增多虽不会增加事务操作压力,但其需要从 Leader 同步数据,Observer 同步数据的时间是小于等于 Follower 同步数据的时间的。当 Follower 同步数据完成,Leader 的 Observer 列表中的Observer 主机将结束同步。那些完成同步的 Observer 将会进入到另一个对外提供服务的列表。那么,那些没有同步了数据无法提供服务的 Observer 主机就形成了资源浪费。 所以,对于事务操作发生频繁的系统,不建议使用过多的 Observer。

Leader 中保存的 Observer 列表其实有两个: all:包含所有 Observer。 service:已经完成了从 Leader 同步数据的任务。service <= all。其是动态的。

Leader 中保存的 Follower 列表其实也有两个: all:要求其中必须有过半的 Follower 向Leader 反馈ACK service:

当集群正在启动过程中,或 Leader 崩溃后,集群就进入了恢复模式。对于要恢复的数据状态需要遵循三个原则。

若集群中 Leader 收到的 Follower 心跳数量没有过半,此时 Leader 会自认为自己与集群的连接已经出现了问题,其会主动修改自己的状态为 LOOKING,去查找新的 Leader。 而其它 Server 由于有过半的主机认为已经丢失了 Leader,所以它们会发起新的 Leader选举,选出一个新的 Leader。

正常情况下,当 Leader 收到超过半数 Follower 的 ACKs 后,就向各个 Follower 广播COMMIT 消息,批准各个Server 执行该写操作事务。当各个Server 在接收到Leader 的COMMIT 消息后就会在本地执行该写操作,然后会向客户端响应写操作成功。 但是如果在非全部 Follower 收到 COMMIT 消息之前 Leader 就挂了,这将导致一种后果:部分 Server 已经执行了该事务,而部分 Server 尚未收到 COMMIT 消息,所以其并没有执行该事务。当新的 Leader 被选举出,集群经过恢复模式后需要保证所有 Server 上都执行了那些已经被部分 Server 执行过的事务。

当在 Leader 新事务已经通过,其已经将该事务更新到了本地,但所有 Follower 还都没有收到 COMMIT 之前,Leader 宕机了,此时,所有 Follower 根本就不知道该 Proposal 的存在。当新的 Leader 选举出来,整个集群进入正常服务状态后,之前挂了的 Leader 主机重新启动并注册成为了 Follower。若那个别人根本不知道的 Proposal 还保留在那个主机,那么其数据就会比其它主机多出了内容,导致整个系统状态的不一致。所以,该 Proposa 应该被丢弃。类似这样应该被丢弃的事务,是不能再次出现在集群中的,应该被清除。

前面我们说过,无论是写操作投票,还是 Leader 选举投票,都必须过半才能通过,也就是说若出现超过半数的主机宕机,则投票永远无法通过。基于该理论,由 5 台主机构成的集群,最多只允许 2 台宕机。而由 6 台构成的集群,其最多也只允许 2 台宕机。即,6 台与5 台的容灾能力是相同的。基于此容灾能力的原因,建议使用奇数台主机构成集群,以避免资源浪费。 但从系统吞吐量上说,6 台主机的性能一定是高于 5 台的。所以使用 6 台主机并不是资源浪费。

对于一个高可用的系统,除了要设置多台主机部署为一个集群避免单点问题外,还需要考虑将集群部署在多个机房、多个楼宇。对于多个机房、楼宇中集群也是不能随意部署的, 下面就多个机房的部署进行分析。 在多机房部署设计中,要充分考虑“过半原则”,也就是说,尽量要确保 zk 集群中有过半的机器能够正常运行。

在生产环境下,三机房部署是最常见的、容灾性最好的部署方案。三机房部署中要求每个机房中的主机数量必须少于集群总数的一半。

zk 官方没有给出较好的双机房部署的容灾方案。只能是让其中一个机房占有超过半数的主机,使其做为主机房,而另一机房少于半数。当然,若主机房出现问题,则整个集群会瘫痪。

CAP 定理又称 CAP 原则,指的是在一个分布式系统中,Consistency(一致性)、Availability(可用性)、Partition tolerance(分区容错性),三者不可兼得。

对于分布式系统,网络环境相对是不可控的,出现网络分区是不可避免的,因此系统必须具备分区容错性。但其并不能同时保证一致性与可用性。CAP 原则对于一个分布式系统来说,只可能满足两项,即要么 CP,要么 AP。

BASE 是Basically Available(基本可用)、Soft state(软状态)和 Eventually consistent(最终一致性)三个短语的简写。

BASE 理论的核心思想是:即使无法做到实时一致性,但每个系统都可以根据自身的业务特点,采用适当的方式来使系统达到最终一致性。

基本可用是指分布式系统在出现不可预知故障的时候,允许损失部分可用性。 损失响应时间: 损失功能:

软状态,是指允许系统数据存在的中间状态,并认为该中间状态的存在不会影响系统的整体可用性,即允许系统主机间进行数据同步的过程存在一定延时。软状态,其实就是一种灰度状态,过渡状态。

最终一致性强调的是系统中所有的数据副本,在经过一段时间的同步后,最终能够达到一个一致的状态。因此,最终一致性的本质是需要系统保证最终数据能够达到一致,而不需要实时保证系统数据的一致性。

从达到一致性的时间角度来划分,可以分为:

单从客户端访问到的内容角度来划分,可以分为:

zk 遵循的是 CP 原则,即保证了一致性,但牺牲了可用性。体现在哪里呢?

当 Leader 宕机后,zk 集群会马上进行新的 Leader 的选举。但选举时长一般在 200 毫秒内,最长不超过 60 秒,整个选举期间 zk 集群是不接受客户端的读写操作的,即 zk 集群是处于瘫痪状态的。所以,其不满足可用性。

这里说的zk可能会引发脑裂,是指的在多机房部署中,若出现了网络连接问题,形成多个分区,则可能会出现脑裂问题,可能会导致数据不一致。 (1)情况一

(2)情况二

(5)情况五

Zookeeper深入原理(2) - Watcher 监听机制

Zookeeper 提供了分布式 数据发布和订阅功能,一个典型的发布和订阅模型系统定义了一种一对多的订阅关系,能让多个订阅者同时监听某一个主题的对象,当这个主题对象自身状态变化时,会通知所有订阅者,使它们能够做出相应的处理。 Zookeeper中引入了Watcher机制来实现这种分布式通知的功能。 Zookeeper允许客户端向服务端注册一个Watcher监听。 当服务端的一些事件出发了Watcher监听机制,就会向指定得客户端发送一个事件通知来实现分布式的通知功能。 触发事件种类: 节点创建、节点删除、节点改变、子节点改变等。 总的来说可以概括Watcher分为以下三个过程: 客户端向服务端注册Watcher、服务端事件触发Watcher、客户端回调Watcher得到触发事件情况。 一次性触发 事件触发监听,一个Watcher Event 就会被发送到设置监听的客户端,这种效果是一次性的,后续再发生同样的事件,不会触发机制。 事件封装 Zookeeper使用WatchedEvent对象来封装服务端事件并传递。 WatchedEvent包含每一个事件的三个基本属性: 通知状态(keeperState) 、事件类型(EventType)、节点路径(path)Event 异步发送 Watcher的通知事件是从服务端异步发送到客户端的。 先注册再触发 Zookeeper的Watch机制,必须客户端在服务端注册监听,服务器端触发监听机制,才会通知客户端。 同一个事件类型在不同的通知状态中代表的含义有所不同,下表列举了常见的通知状态和事件类型。 事件封装:Watcher得到的事件是被封装过的, 包括三个内容keeperState, eventType, path其中连接状态事件(type=None, path=null)不需要客户端注册,客户端只要有需要直接处理就行了。 客户端设置Watcher 设置节点数据变动监听: 通过另一个客户端更改节点数据: 此时设置监听的节点收到通知操作 这里操作Zookeeper的JavaAPI使用的是一套zookeeper客户端框架 Curator ,解决了很多Zookeeper客户端非常底层的细节开发工作 。 Curator包含了几个包: curator-framework:对zookeeper的底层api的一些封装 curator-recipes:封装了一些高级特性,如:Cache事件监听、选举、分布式锁、分布式计数器等 Maven依赖(使用curator的版本:2.12.0,对应Zookeeper的版本为:3.4.x,如果跨版本会有兼容性问题,很有可能导致节点操作失败): 1. 引入maven坐标 2.节点的操作

若对本页面资源感兴趣,请点击下方或右方图片,注册登录后

搜索本页相关的【资源名】【软件名】【功能词】或有关的关键词,即可找到您想要的资源

如有其他疑问,请咨询右下角【在线客服】,谢谢支持!

ZooKeeper 配置深潜:了解内部机制并微调设置 (zookeeper的主要功能) 第2张

发表评论

评论列表

  • 这篇文章还没有收到评论,赶紧来抢沙发吧~
欢迎你第一次访问网站!