日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

超全zookeeper知识点与实战

發(fā)布時(shí)間:2023/12/15 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 超全zookeeper知识点与实战 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

第1章 Zookeeper
1.1 概述
Zookeeper是一個(gè)開源的分布式的,為分布式應(yīng)用提供協(xié)調(diào)服務(wù)的Apache項(xiàng)目。

配合其他服務(wù)器,
文件系統(tǒng)——存儲(chǔ)各種服務(wù)器上線信息
通知機(jī)制——客戶端跟zookeeper打招呼
1.2 特點(diǎn)

1)Zookeeper:一個(gè)領(lǐng)導(dǎo)者(Leader),多個(gè)跟隨者(Follower)組成的集群。
2)集群中只要有半數(shù)以上節(jié)點(diǎn)存活,Zookeeper集群就能正常服務(wù)。所以Zookeeper適合安裝奇數(shù)臺(tái)服務(wù)器。 (如果偶數(shù)就浪費(fèi)了一臺(tái)集群)
3)全局?jǐn)?shù)據(jù)一致:每個(gè)Server保存一份相同的數(shù)據(jù)副本,Client無論連接到哪個(gè)Server,數(shù)據(jù)都是一致的。
4)更新請(qǐng)求順序執(zhí)行,來自同一個(gè)Client的更新請(qǐng)求按其發(fā)送順序依次執(zhí)行。
5)數(shù)據(jù)更新原子性,一次數(shù)據(jù)更新要么成功,要么失敗。
(封裝成一個(gè)大的事務(wù),要么整體成功,要么整體失敗)
6)實(shí)時(shí)性,在一定時(shí)間范圍內(nèi),Client能讀到最新數(shù)據(jù)。
(同步數(shù)據(jù),速度非常快,因?yàn)閦ookeeper里面的數(shù)據(jù)非常小)
1.3 數(shù)據(jù)結(jié)構(gòu)
數(shù)據(jù)結(jié)構(gòu)
ZooKeeper數(shù)據(jù)模型的結(jié)構(gòu)與Unix文件系統(tǒng)很類似,整體上可以看作是一棵樹,每個(gè)節(jié)點(diǎn)稱做一個(gè)ZNode。每一個(gè)ZNode默認(rèn)能夠存儲(chǔ)1MB的數(shù)據(jù),每個(gè)ZNode都可以通過其路徑唯一標(biāo)識(shí)。

存儲(chǔ)的數(shù)據(jù)量比較小,存儲(chǔ)的內(nèi)容有限
1.4 應(yīng)用場(chǎng)景
提供的服務(wù)包括:統(tǒng)一命名服務(wù)、統(tǒng)一配置管理、統(tǒng)一集群管理、服務(wù)器節(jié)點(diǎn)動(dòng)態(tài)上下線、軟負(fù)載均衡等。

統(tǒng)一命名服務(wù)
在分布式環(huán)境下,經(jīng)常需要對(duì)應(yīng)用/服務(wù)進(jìn)行統(tǒng)一命名,便于識(shí)別。
例如:IP不容易記住,而域名容易記住。

統(tǒng)一配置管理
1)分布式環(huán)境下,配置文件同步非常常見。
(1)一般要求一個(gè)集群中,所有節(jié)點(diǎn)的配置信息是一致的,比如 Kafka 集群。
(2)對(duì)配置文件修改后,希望能夠快速同步到各個(gè)節(jié)點(diǎn)上。
2) 配置管理可交由ZooKeeper實(shí)現(xiàn)。
(1)可將配置信息寫入ZooKeeper上的一個(gè)Znode。
(2)各個(gè)客戶端服務(wù)器監(jiān)聽這個(gè)Znode。
(3)一旦Znode中的數(shù)據(jù)被修改,ZooKeeper將通知各個(gè)客戶端服務(wù)器。

1)分布式環(huán)境中,實(shí)時(shí)掌握每個(gè)節(jié)點(diǎn)的狀態(tài)是必要的。
(1)可根據(jù)節(jié)點(diǎn)實(shí)時(shí)狀態(tài)做出一些調(diào)整。
2)ZooKeeper可以實(shí)現(xiàn)實(shí)時(shí)監(jiān)控節(jié)點(diǎn)狀態(tài)變化
(1)可將節(jié)點(diǎn)運(yùn)行狀態(tài)信息寫入ZooKeeper上的一個(gè)ZNode。
(2)監(jiān)聽這個(gè)ZNode可獲取它的實(shí)時(shí)狀態(tài)變化。
相當(dāng)于講客戶端所有的相關(guān)信息注冊(cè)上之后,進(jìn)行統(tǒng)一的集群管理,以及集群狀態(tài)的好壞

服務(wù)器動(dòng)態(tài)上下線

軟負(fù)載均衡
在Zookeeper中記錄每臺(tái)服務(wù)器的訪問數(shù),讓訪問數(shù)最少的服務(wù)器去處理最新的客戶端請(qǐng)求

服務(wù)器注冊(cè)域名,下面有多臺(tái)服務(wù)器,多臺(tái)服務(wù)器有一個(gè)接客線程數(shù),zookeeper根據(jù)每一個(gè)節(jié)點(diǎn)上對(duì)應(yīng)的訪問數(shù)來進(jìn)行軟負(fù)載均衡

1.5 下載地址
1)官網(wǎng)首頁(yè):
https://zookeeper.apache.org/
2)下載截圖

選擇相對(duì)穩(wěn)定的老版本

第2章 Zookeeper本地安裝
2.1 本地模式安裝部署
1)安裝前準(zhǔn)備
(1)安裝Jdk
(2)拷貝Zookeeper安裝包到Linux系統(tǒng)下
先啟動(dòng)三臺(tái)集群

(3)解壓到指定目錄

[leokadia@hadoop102 software]$ tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz -C /opt/module/


查看

改名

[leokadia@hadoop102 module]$ mv apache-zookeeper-3.5.7-bin/ zookeeper-3.5.7


2)配置修改
(1)將/opt/module/zookeeper-3.5.7/conf這個(gè)路徑下的zoo_sample.cfg修改為zoo.cfg;

[leokadia@hadoop102 conf]$ mv zoo_sample.cfg zoo.cfg

(2)打開zoo.cfg文件,修改dataDir路徑:

[leokadia@hadoop102 conf]$ vim zoo.cfg

/tmp存儲(chǔ)的是臨時(shí)數(shù)據(jù),到了一個(gè)月會(huì)被刪除掉,也就是到了1個(gè)月zookeeper數(shù)據(jù)都沒了,于是需要?jiǎng)?chuàng)建一個(gè)目錄進(jìn)行保存,通常創(chuàng)建zkData

想把數(shù)據(jù)放在自己的框架下,于是在自己的目錄下創(chuàng)建目錄zkData

(3)在/opt/module/zookeeper-3.5.7/這個(gè)目錄上創(chuàng)建zkData文件夾

[leokadia@hadoop102 zookeeper-3.5.7]$ mkdir zkData


在配置文件中修改如下內(nèi)容:

dataDir=/opt/module/zookeeper-3.5.7/zkData

3)操作Zookeeper
(1)啟動(dòng)Zookeeper

[leokadia@hadoop102 zookeeper-3.5.7]$ bin/zkServer.sh start

(2)查看進(jìn)程是否啟動(dòng)

[leokadia@hadoop102 zookeeper-3.5.7]$ jps

(3)查看狀態(tài):

[leokadia@hadoop102 zookeeper-3.5.7]$ bin/zkServer.sh status!


(4)啟動(dòng)客戶端:

[leokadia@hadoop102 zookeeper-3.5.7]$ bin/zkCli.sh

(5)退出客戶端:

[zk: localhost:2181(CONNECTED) 0] quit

(6)停止Zookeeper

[leokadia@hadoop102 zookeeper-3.5.7]$ bin/zkServer.sh stop

2.2 配置參數(shù)解讀

Zookeeper中的配置文件zoo.cfg中參數(shù)含義解讀如下:
1)tickTime =2000:通信心跳數(shù),Zookeeper服務(wù)器與客戶端心跳時(shí)間,單位毫秒
Zookeeper使用的基本時(shí)間,服務(wù)器之間或客戶端與服務(wù)器之間維持心跳的時(shí)間間隔,也就是每個(gè)tickTime時(shí)間就會(huì)發(fā)送一個(gè)心跳,時(shí)間單位為毫秒。
它用于心跳機(jī)制,并且設(shè)置最小的session超時(shí)時(shí)間為兩倍心跳時(shí)間。(session的最小超時(shí)時(shí)間是2*tickTime)

即客戶端與服務(wù)端,服務(wù)端與服務(wù)段2s中發(fā)一次通信

2)initLimit =10:LF初始通信時(shí)限
集群中的Follower跟隨者服務(wù)器與Leader領(lǐng)導(dǎo)者服務(wù)器之間初始連接時(shí)能容忍的最多心跳數(shù)(tickTime的數(shù)量),用它來限定集群中的Zookeeper服務(wù)器連接到Leader的時(shí)限。

初始化在10個(gè)心跳(20s)還沒有建立連接,這個(gè)通信就是失敗的

3)syncLimit =5:LF同步通信時(shí)限
集群中Leader與Follower之間的最大響應(yīng)時(shí)間單位,假如響應(yīng)超過syncLimit * tickTime,Leader認(rèn)為Follwer死掉,從服務(wù)器列表中刪除Follwer。

4)dataDir:數(shù)據(jù)文件目錄+數(shù)據(jù)持久化路徑
主要用于保存Zookeeper中的數(shù)據(jù)。

注意:默認(rèn)的tmp目錄,容易被Linux系統(tǒng)定期刪除,所以一般不用默認(rèn)的tmp目錄。

5)clientPort =2181:客戶端連接端口
監(jiān)聽客戶端連接的端口。通常情況下不做修改。

第3章 Zookeeper實(shí)戰(zhàn)(開發(fā)重點(diǎn))

3.1 分布式安裝部署

1)集群規(guī)劃
在hadoop102、hadoop103和hadoop104三個(gè)節(jié)點(diǎn)上部署Zookeeper。
2)解壓安裝
(1)解壓Zookeeper安裝包到/opt/module/目錄下

[leokadia@hadoop102 software]$ tar -zxvf apache-zookeeper-3.5.7-bin.tar.gz -C /opt/module/

之前本地做過了

(2)同步/opt/module/zookeeper-3.5.7目錄內(nèi)容到hadoop103、hadoop104

[leokadia@hadoop102 module]$ xsync zookeeper-3.5.7/

3)配置服務(wù)器編號(hào)
(1)在/opt/module/zookeeper-3.5.7/這個(gè)目錄下創(chuàng)建zkData

[leokadia@hadoop102 zookeeper-3.5.7]$ mkdir -p zkData

(2)在/opt/module/zookeeper-3.5.7/zkData目錄下創(chuàng)建一個(gè)myid的文件

[leokadia@hadoop102 zkData]$ touch myid

添加myid文件,注意一定要在linux里面創(chuàng)建,在notepad++里面很可能亂碼
(3)編輯myid文件

[leokadia@hadoop102 zkData]$ vi myid

在文件中添加與server對(duì)應(yīng)的編號(hào):
2

Hadoop102 配置2,hadoop103配置3,hadoop104配置4

(4)拷貝配置好的zookeeper到其他機(jī)器上

[leokadia@hadoop102 zkData]$ xsync myid

如果前面沒分發(fā),同步/opt/module/zookeeper-3.5.7目錄內(nèi)容到hadoop103、hadoop104,當(dāng)然也可以等到后面一起分發(fā)

[leokadia@hadoop102 module]$ xsync zookeeper-3.5.7/

并分別在hadoop103、hadoop104上修改myid文件中內(nèi)容為3、4



4)配置zoo.cfg文件
(1)重命名/opt/module/zookeeper-3.5.7/conf這個(gè)目錄下的zoo_sample.cfg為zoo.cfg

[leokadia@hadoop102 conf]$ mv zoo_sample.cfg zoo.cfg

(2)打開zoo.cfg文件

[leokadia@hadoop102 conf]$ vim zoo.cfg

修改數(shù)據(jù)存儲(chǔ)路徑配置(在上文已經(jīng)做過了)
dataDir=/opt/module/zookeeper-3.5.7/zkData
增加如下配置

#######################cluster########################## server.2=hadoop102:2888:3888 server.3=hadoop103:2888:3888 server.4=hadoop104:2888:3888

(3)同步zoo.cfg配置文件

[leokadia@hadoop102 conf]$ xsync zoo.cfg


檢查是否分發(fā)成功

hadoop103修改成功

(4)配置參數(shù)解讀
server.A=B:C:D。
A是一個(gè)數(shù)字,表示這個(gè)是第幾號(hào)服務(wù)器;
集群模式下配置一個(gè)文件myid,這個(gè)文件在dataDir目錄下,這個(gè)文件里面有一個(gè)數(shù)據(jù)就是A的值,Zookeeper啟動(dòng)時(shí)讀取此文件,拿到里面的數(shù)據(jù)與zoo.cfg里面的配置信息比較從而判斷到底是哪個(gè)server。
B是這個(gè)服務(wù)器的地址;
C是這個(gè)服務(wù)器Follower與集群中的Leader服務(wù)器交換信息的端口;
D是萬一集群中的Leader服務(wù)器掛了,需要一個(gè)端口來重新進(jìn)行選舉,選出一個(gè)新的Leader,而這個(gè)端口就是用來執(zhí)行選舉時(shí)服務(wù)器相互通信的端口。
5)集群操作
(1)分別啟動(dòng)Zookeeper

[leokadia@hadoop102 zookeeper-3.5.7]$ bin/zkServer.sh start [leokadia@hadoop103 zookeeper-3.5.7]$ bin/zkServer.sh start [leokadia@hadoop104 zookeeper-3.5.7]$ bin/zkServer.sh start

注:如果只啟動(dòng)一臺(tái)集群查看狀態(tài),發(fā)現(xiàn)沒有啟動(dòng)起來,因?yàn)榇藭r(shí)是3臺(tái)服務(wù)器,目前只啟動(dòng)一臺(tái)服務(wù)器,沒有達(dá)到超過半數(shù),就不會(huì)選出對(duì)應(yīng)的Leader,對(duì)應(yīng)的集群就沒法工作,集群必須要有超過半數(shù)以上的服務(wù)器是好的,才能正常工作

如何知道是否超過半數(shù)了呢?根據(jù)配置文件剛剛配置文件中寫了有3臺(tái)服務(wù)器


此時(shí)我們啟動(dòng)第二臺(tái)服務(wù)器,可以發(fā)現(xiàn)hadoop103成為了leader

再查看hadoop102,發(fā)現(xiàn)其成為了follower

此時(shí)再啟動(dòng)hadoop104,查看狀態(tài)

發(fā)現(xiàn)104為follower

(2)查看狀態(tài)(見上圖)

[leokadia@hadoop102 zookeeper-3.5.7]# bin/zkServer.sh status JMX enabled by default Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg Mode: follower [leokadia@hadoop103 zookeeper-3.5.7]# bin/zkServer.sh status JMX enabled by default Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg Mode: leader [leokadia@hadoop104 zookeeper-3.4.5]# bin/zkServer.sh status JMX enabled by default Using config: /opt/module/zookeeper-3.5.7/bin/../conf/zoo.cfg Mode: follower

3.1.2 集群?jiǎn)?dòng)停止腳本

由于如果集群較多的話,每一臺(tái)集群?jiǎn)?dòng)和停止都需要輸入命令太過于繁瑣,故編寫腳本統(tǒng)一啟動(dòng)和停止。
1)在 hadoop102 的/home/leokadia/bin 目錄下創(chuàng)建腳本

[leokadia@hadoop102 bin]$ vim zk.sh

在腳本中編寫如下內(nèi)容

#!/bin/bash case $1 in "start"){for i in hadoop102 hadoop103 hadoop104doecho ---------- zookeeper $i 啟動(dòng) ------------ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh start"done };; "stop"){for i in hadoop102 hadoop103 hadoop104doecho ---------- zookeeper $i 停止 ------------ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh stop"done };; "status"){for i in hadoop102 hadoop103 hadoop104doecho ---------- zookeeper $i 狀態(tài) ------------ssh $i "/opt/module/zookeeper-3.5.7/bin/zkServer.sh status"done };; esac

2)增加腳本執(zhí)行權(quán)限

[leokadia@hadoop102 bin]$ chmod 777 zk.sh

3)Zookeeper 集群?jiǎn)?dòng)腳本
先啟動(dòng)一下hadoop集群

[leokadia@hadoop102 bin]$ jpsall

啟動(dòng)zk集群

[leokadia@hadoop102 bin]$ zk.sh start


查看各集群狀態(tài):

[leokadia@hadoop102 bin]$ zk.sh status

4)Zookeeper 集群停止腳本

[leokadia@hadoop102 bin]$ zk.sh stop

3.2 客戶端命令行操作

命令基本語法 功能描述
help 顯示所有操作命令
ls path 使用 ls 命令來查看當(dāng)前znode的子節(jié)點(diǎn)
-w 監(jiān)聽子節(jié)點(diǎn)變化
-s 附加次級(jí)信息
create 普通創(chuàng)建
-s 含有序列
-e 臨時(shí)(重啟或者超時(shí)消失)
get path 獲得節(jié)點(diǎn)的值
-w 監(jiān)聽節(jié)點(diǎn)內(nèi)容變化
-s 附加次級(jí)信息
set 設(shè)置節(jié)點(diǎn)的具體值
stat 查看節(jié)點(diǎn)狀態(tài)
delete 刪除節(jié)點(diǎn)
deleteall 遞歸刪除節(jié)點(diǎn)

先啟動(dòng)集群

1)啟動(dòng)客戶端

[leokadia@hadoop103 zookeeper-3.5.7]$ bin/zkCli.sh



啟動(dòng)之后發(fā)現(xiàn)是個(gè)本地的客戶端,想要把它變成hadoop102或者103這種的客戶端,先輸入quit退出,再輸入

[leokadia@hadoop102 zookeeper-3.5.7]$ bin/zkCli.sh -server hadoop102:2181

2)顯示所有操作命令

[zk: localhost:2181(CONNECTED) 1] help

3)查看當(dāng)前znode中所包含的內(nèi)容

[zk: localhost:2181(CONNECTED) 0] ls / [zookeeper]

4)查看當(dāng)前節(jié)點(diǎn)詳細(xì)數(shù)據(jù)

[zk: localhost:2181(CONNECTED) 1] ls2 / [zookeeper] cZxid = 0x0 ctime = Thu Jan 01 08:00:00 CST 1970 mZxid = 0x0 mtime = Thu Jan 01 08:00:00 CST 1970 pZxid = 0x0 cversion = -1 dataVersion = 0 aclVersion = 0 ephemeralOwner = 0x0 dataLength = 0 numChildren = 1


(1)czxid:創(chuàng)建節(jié)點(diǎn)的事務(wù) zxid
每次修改 ZooKeeper 狀態(tài)都會(huì)產(chǎn)生一個(gè) ZooKeeper 事務(wù) ID。事務(wù) ID 是 ZooKeeper 中所 有修改總的次序。每次修改都有唯一的 zxid,如果 zxid1 小于 zxid2,那么 zxid1 在 zxid2 之 前發(fā)生。
(2)ctime:znode 被創(chuàng)建的毫秒數(shù)(從 1970 年開始)
(3)mzxid:znode 最后更新的事務(wù) zxid
(4)mtime:znode 最后修改的毫秒數(shù)(從 1970 年開始)
(5)pZxid:znode 最后更新的子節(jié)點(diǎn) zxid (存儲(chǔ)的是樹形結(jié)構(gòu))
(6)cversion:znode 子節(jié)點(diǎn)變化號(hào),znode 子節(jié)點(diǎn)修改次數(shù)
(7)dataversion:znode 數(shù)據(jù)變化號(hào)
(8)aclVersion:znode 訪問控制列表的變化號(hào)
(9)ephemeralOwner:如果是臨時(shí)節(jié)點(diǎn),這個(gè)是 znode 擁有者的 session id。如果不是 臨時(shí)節(jié)點(diǎn)則是 0。
(10)dataLength:znode 的數(shù)據(jù)長(zhǎng)度
(11)numChildren:znode 子節(jié)點(diǎn)數(shù)量

1)分別創(chuàng)建2個(gè)普通節(jié)點(diǎn)(永久節(jié)點(diǎn))還是用的漫威的例子

[zk: hadoop102:2181(CONNECTED) 7] create /hero "ironman" Created /hero [zk: hadoop102:2181(CONNECTED) 9] create /hero/Marvel "Hulk" Created /hero/Marvel

2)獲得節(jié)點(diǎn)的值

[zk: hadoop102:2181(CONNECTED) 12] get -s /hero ironman cZxid = 0x300000006 ctime = Sat Nov 27 08:07:39 CST 2021 mZxid = 0x300000006 mtime = Sat Nov 27 08:07:39 CST 2021 pZxid = 0x300000007 cversion = 1 dataVersion = 0 aclVersion = 0 ephemeralOwner = 0x0 dataLength = 7 numChildren = 1 [zk: hadoop102:2181(CONNECTED) 13] get -s /hero/Marvel Hulk cZxid = 0x300000007 ctime = Sat Nov 27 08:10:48 CST 2021 mZxid = 0x300000007 mtime = Sat Nov 27 08:10:48 CST 2021 pZxid = 0x300000007 cversion = 0 dataVersion = 0 aclVersion = 0 ephemeralOwner = 0x0 dataLength = 4 numChildren = 0


3)創(chuàng)建帶序號(hào)的節(jié)點(diǎn)(永久節(jié)點(diǎn) + 帶序號(hào))

[zk: hadoop102:2181(CONNECTED) 4] create -s /hero/DC/Batman "Batman" Created /hero/DC/Batman0000000000

那么帶序號(hào)和不帶序號(hào)的節(jié)點(diǎn)有什么區(qū)別嗎?
帶序號(hào)的節(jié)點(diǎn)可以創(chuàng)建相同名稱的節(jié)點(diǎn),序號(hào)自動(dòng)加1,不帶序號(hào)的不能重復(fù)創(chuàng)建同名結(jié)點(diǎn)。

驗(yàn)證退出客戶端,節(jié)點(diǎn)是否還是存在

節(jié)點(diǎn)沒有被刪除


如果原來沒有序號(hào)節(jié)點(diǎn),序號(hào)從 0 開始依次遞增。如果原節(jié)點(diǎn)下已有 2 個(gè)節(jié)點(diǎn),則再排 序時(shí)從 2 開始,以此類推。

[zk: hadoop102:2181(CONNECTED) 14] create -e /hero/Darkhorse "darkhorse" Created /hero/Darkhorse [zk: hadoop102:2181(CONNECTED) 15] create -e -s /hero/Darkhorse "darkhorse" Created /hero/Darkhorse0000000003


退出后,發(fā)現(xiàn)臨時(shí)節(jié)點(diǎn)消失

9)修改節(jié)點(diǎn)數(shù)據(jù)值

[zk: hadoop102:2181(CONNECTED) 3] set -s /hero/DC "DC"

3.2.4 監(jiān)聽器原理

客戶端注冊(cè)監(jiān)聽它關(guān)心的目錄節(jié)點(diǎn),當(dāng)目錄節(jié)點(diǎn)發(fā)生變化(數(shù)據(jù)改變、節(jié)點(diǎn)刪除、子目 錄節(jié)點(diǎn)增加刪除)時(shí),ZooKeeper 會(huì)通知客戶端。監(jiān)聽機(jī)制保證 ZooKeeper 保存的任何的數(shù) 據(jù)的任何改變都能快速的響應(yīng)到監(jiān)聽了該節(jié)點(diǎn)的應(yīng)用程序。

1、監(jiān)聽原理詳解

  • 1)首先在要有一個(gè)main()線程
  • 2)在main線程中創(chuàng)建Zookeeper客戶端,這時(shí)就會(huì)創(chuàng)建兩個(gè)線程,一個(gè)負(fù)責(zé)網(wǎng)絡(luò)連接通信(connet),一個(gè)負(fù)責(zé)監(jiān)聽(listener)。
  • 3)通過connect線程將注冊(cè)的監(jiān)聽事件發(fā)送給Zookeeper。
  • 4)在Zookeeper的注冊(cè)監(jiān)聽器列表中將注冊(cè)的監(jiān)聽事件添加到列表中。
  • 5)Zookeeper監(jiān)聽到有數(shù)據(jù)或路徑變化,就會(huì)將這個(gè)消息發(fā)送給listener線程。
  • 6)listener線程內(nèi)部調(diào)用了process()方法。


2、常見的監(jiān)聽
1)監(jiān)聽節(jié)點(diǎn)數(shù)據(jù)的變化
get path [watch]
2)監(jiān)聽子節(jié)點(diǎn)增減的變化
ls path [watch]


10)節(jié)點(diǎn)的值變化監(jiān)聽
(1)在hadoop104主機(jī)上注冊(cè)監(jiān)聽/hero節(jié)點(diǎn)數(shù)據(jù)變化

[zk: localhost:2181(CONNECTED) 1] get -w /hero

(2)在hadoop103主機(jī)上修改/sanguo節(jié)點(diǎn)的數(shù)據(jù)

[zk: localhost:2181(CONNECTED) 0] set /hero "Avengers"

(3)觀察hadoop104主機(jī)收到數(shù)據(jù)變化的監(jiān)聽

WATCHER:: WatchedEvent state:SyncConnected type:NodeDataChanged path:/hero


再次修改數(shù)據(jù),hadoop104無變化,監(jiān)聽不到


注意:在hadoop103再多次修改/hero的值,hadoop104上不會(huì)再收到監(jiān)聽。因?yàn)樽?cè) 一次,只能監(jiān)聽一次。想再次監(jiān)聽,需要再次注冊(cè)。

2)節(jié)點(diǎn)的子節(jié)點(diǎn)變化監(jiān)聽(路徑變化)
(1)在hadoop104主機(jī)上注冊(cè)監(jiān)聽/sanguo節(jié)點(diǎn)的子節(jié)點(diǎn)變化

[zk: localhost:2181(CONNECTED) 1] ls -w/hero

(2)在hadoop103主機(jī)/sanguo節(jié)點(diǎn)上創(chuàng)建子節(jié)點(diǎn)

[zk: localhost:2181(CONNECTED) 0] create /hero/Disney "Woody" Created /hero/Disney

(3)觀察hadoop104主機(jī)收到子節(jié)點(diǎn)變化的監(jiān)聽

WATCHER:: WatchedEvent state:SyncConnected type:NodeChildrenChanged path:/hero


同理,再在hadoop103創(chuàng)建子節(jié)點(diǎn),hadoop104上不會(huì)再收到監(jiān)聽。因?yàn)樽?cè)一次,只能監(jiān)聽一次。想再次監(jiān)聽,需要再次注冊(cè)。

注意:節(jié)點(diǎn)的路徑變化,也是注冊(cè)一次,生效一次。想多次生效,就需要多次注冊(cè)。

3.2.5 節(jié)點(diǎn)刪除與查找

12)刪除節(jié)點(diǎn)

[zk: localhost:2181(CONNECTED) 7] delete /hero/Disney

2)遞歸刪除節(jié)點(diǎn)

[zk: localhost:2181(CONNECTED) 15] deleteall/hero

3)查看節(jié)點(diǎn)狀態(tài)

[zk: localhost:2181(CONNECTED) 17] stat /zookeeper

3.3 客戶端API應(yīng)用

3.3.1 IDEA環(huán)境搭建

1)創(chuàng)建一個(gè)Maven工程

2)添加pom文件

<dependencies><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>RELEASE</version></dependency><dependency><groupId>org.apache.logging.log4j</groupId><artifactId>log4j-core</artifactId><version>2.8.2</version></dependency><dependency><groupId>org.apache.zookeeper</groupId><artifactId>zookeeper</artifactId><version>3.5.7</version></dependency> </dependencies>


3)拷貝log4j.properties文件到項(xiàng)目根目錄
需要在項(xiàng)目的src/main/resources目錄下,新建一個(gè)文件,命名為“l(fā)og4j.properties”,在文件中填入。

log4j.rootLogger=INFO, stdout log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.layout=org.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n log4j.appender.logfile=org.apache.log4j.FileAppender log4j.appender.logfile.File=target/spring.log log4j.appender.logfile.layout=org.apache.log4j.PatternLayout log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n


3.3.2 創(chuàng)建ZooKeeper客戶端

public class zkClient {// 注意:逗號(hào)左右不能有空格private String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";private int sessionTimeout = 2000;private ZooKeeper zkClient;@Beforepublic void init() throws IOException {zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {@Overridepublic void process(WatchedEvent watchedEvent) {}});}}

3.3.3 創(chuàng)建子節(jié)點(diǎn)

@Testpublic void create() throws KeeperException, InterruptedException {String nodeCreated = zkClient.create("/leokadia", "sa.avi".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);//創(chuàng)建持久節(jié)點(diǎn)}


在hadoop103上驗(yàn)證是否創(chuàng)建對(duì)應(yīng)節(jié)點(diǎn),創(chuàng)建成功

3.3.4 獲取子節(jié)點(diǎn)并監(jiān)聽節(jié)點(diǎn)變化

@Test public void getChildren() throws Exception {List<String> children = zkClient.getChildren("/", true);for (String child : children) {System.out.println(child);}// 延時(shí)阻塞Thread.sleep(Long.MAX_VALUE); }


成功打印節(jié)點(diǎn)
在集群中創(chuàng)建節(jié)點(diǎn),希望在控制臺(tái)上有變化所以需要加一個(gè)延時(shí)

但由于這里只注冊(cè)監(jiān)聽一次,就失效了,故將其移到上面代碼中

在控制臺(tái)創(chuàng)建節(jié)點(diǎn)

成功監(jiān)聽

刪除節(jié)點(diǎn)也能順利監(jiān)聽

3.3.5 判斷Znode是否存在

@Test public void exist() throws Exception {Stat stat = zkClient.exists("/eclipse", false);System.out.println(stat == null ? "not exist" : "exist"); }


在集群中將其刪除

再次運(yùn)行代碼,不存在

3.4 客戶端向服務(wù)端寫數(shù)據(jù)流程

3.4.1 寫流程之寫入請(qǐng)求直接發(fā)送給Leader節(jié)點(diǎn)

寫請(qǐng)求給leader,leader將寫請(qǐng)求通知follower,follower寫完之后回復(fù)leader以ack,當(dāng)超過半數(shù)的寫完了,就回復(fù)客戶端寫完了,其余沒寫完的繼續(xù)寫

3.4.2 寫流程之寫入請(qǐng)求發(fā)送給follower節(jié)點(diǎn)

follower沒有寫權(quán)限,將寫請(qǐng)求送給有權(quán)限的Leader,Leader先自己寫一份,寫完后,傳達(dá)寫命令給其他的Follower節(jié)點(diǎn),讓他們寫,當(dāng)超過半數(shù)的寫完了,Leader就回復(fù)最先收到請(qǐng)求的Follower,整個(gè)集群數(shù)據(jù)寫完了,Follower回復(fù)客戶端寫完了,其余沒寫完的小半數(shù)Follower繼續(xù)寫

4 監(jiān)聽服務(wù)器節(jié)點(diǎn)動(dòng)態(tài)上下線案例

1)需求
某分布式系統(tǒng)中,主節(jié)點(diǎn)可以有多臺(tái),可以動(dòng)態(tài)上下線,任意一臺(tái)客戶端都能實(shí)時(shí)感知到主節(jié)點(diǎn)服務(wù)器的上下線。
2)需求分析

  • 服務(wù)器上線,可以對(duì)外提供服務(wù),告訴zookeeper集群可以對(duì)外提供服務(wù):
    第一臺(tái)服務(wù)器上線,在zookeeper上創(chuàng)建對(duì)應(yīng)的節(jié)點(diǎn)servers/server1 hadoop101 80 nodes,在節(jié)點(diǎn)上提供的信息為,該節(jié)點(diǎn)主機(jī)的名稱為hadoop101,當(dāng)前已經(jīng)連接了80個(gè)客戶端(即為該節(jié)點(diǎn)存儲(chǔ)的數(shù)據(jù))
    第二臺(tái)服務(wù)器上線,在zookeeper上創(chuàng)建對(duì)應(yīng)的節(jié)點(diǎn)servers/server2 hadoop102 90 nodes,在節(jié)點(diǎn)上提供的信息為,該節(jié)點(diǎn)主機(jī)的名稱為hadoop102,當(dāng)前已經(jīng)連接了90個(gè)客戶端(即為該節(jié)點(diǎn)存儲(chǔ)的數(shù)據(jù))
    第三臺(tái)服務(wù)器上線,在zookeeper上創(chuàng)建對(duì)應(yīng)的節(jié)點(diǎn)servers/server3 hadoop103 95 nodes,在節(jié)點(diǎn)上提供的信息為,該節(jié)點(diǎn)主機(jī)的名稱為hadoop103,當(dāng)前已經(jīng)連接了95個(gè)客戶端(即為該節(jié)點(diǎn)存儲(chǔ)的數(shù)據(jù))
    總結(jié):上線服務(wù)器就是在zookeeper集群創(chuàng)建服務(wù)器節(jié)點(diǎn)的操作
  • 客戶端獲取當(dāng)前在線服務(wù)器列表并注冊(cè)監(jiān)聽,監(jiān)控節(jié)點(diǎn)數(shù)據(jù)的變化——監(jiān)聽器原理
  • 如果服務(wù)器2掛掉了(如果服務(wù)器2創(chuàng)建的是一個(gè)臨時(shí)節(jié)點(diǎn)-e,該節(jié)點(diǎn)servers/server2 hadoop102 90 nodes消失)
  • 客戶端監(jiān)聽servers節(jié)點(diǎn)的變化,收到相關(guān)信息,知道該節(jié)點(diǎn)下有子節(jié)點(diǎn)的刪除,即服務(wù)器2下線的通知。
  • 客戶端重新再去獲取服務(wù)器列表,并注冊(cè)監(jiān)聽,再考慮連接服務(wù)器的時(shí)候就不考慮連接服務(wù)器2,只會(huì)考慮連接服務(wù)器1,3。
  • 回顧之前API操作,上面服務(wù)器的操作是create操作,下面是-w監(jiān)聽操作

    3)具體實(shí)現(xiàn)
    先將集群之前測(cè)試用的多于的節(jié)點(diǎn)都刪除,只留zookeeper節(jié)點(diǎn)

    (0)先在集群上創(chuàng)建/servers節(jié)點(diǎn)
    [zk: localhost:2181(CONNECTED) 11] create /servers “servers”
    Created /servers

    (1)服務(wù)器端向Zookeeper注冊(cè)代碼

    package com.leokadia.case1;import org.apache.zookeeper.*;import java.io.IOException;public class DistributeServer {private String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";private int sessionTimeout = 2000;private ZooKeeper zk;public static void main(String[] args) throws IOException, KeeperException, InterruptedException {DistributeServer server = new DistributeServer();// 1 獲取zk連接server.getConnect();// 2 注冊(cè)服務(wù)器到zk集群server.regist(args[0]);// 3 啟動(dòng)業(yè)務(wù)邏輯(等待)server.business();}private void business() throws InterruptedException {Thread.sleep(Long.MAX_VALUE);}// 2 注冊(cè)服務(wù)器到zk集群,創(chuàng)建對(duì)應(yīng)的路徑,在節(jié)點(diǎn)上輸入對(duì)應(yīng)主機(jī)名稱private void regist(String hostname) throws KeeperException, InterruptedException {String create = zk.create("/servers/"+hostname, hostname.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);//路徑 主機(jī)名稱 權(quán)限,上線就有,沒上線就沒有,且有對(duì)應(yīng)的編號(hào),因此創(chuàng)建臨時(shí)帶編號(hào)節(jié)點(diǎn)-e-sSystem.out.println(hostname +" is online") ;}private void getConnect() throws IOException {//連接器連接上對(duì)應(yīng)的zookeeperzk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {@Overridepublic void process(WatchedEvent watchedEvent) {}});} }

    (2)客戶端代碼

    package com.leokadia.case1;import org.apache.zookeeper.KeeperException; import org.apache.zookeeper.WatchedEvent; import org.apache.zookeeper.Watcher; import org.apache.zookeeper.ZooKeeper;import java.io.IOException; import java.util.ArrayList; import java.util.List;public class DistributeClient {private String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";private int sessionTimeout = 2000;private ZooKeeper zk;public static void main(String[] args) throws IOException, KeeperException, InterruptedException {DistributeClient client = new DistributeClient();// 1 獲取zk連接client.getConnect();// 2 監(jiān)聽/servers下面子節(jié)點(diǎn)的增加和刪除client.getServerList();// 3 業(yè)務(wù)邏輯(睡覺)client.business();}private void business() throws InterruptedException {Thread.sleep(Long.MAX_VALUE);}private void getServerList() throws KeeperException, InterruptedException {List<String> children = zk.getChildren("/servers", true);ArrayList<String> servers = new ArrayList<>();for (String child : children) {byte[] data = zk.getData("/servers/" + child, false, null);servers.add(new String(data));}// 打印System.out.println(servers);}private void getConnect() throws IOException {zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {@Overridepublic void process(WatchedEvent watchedEvent) {try {getServerList();} catch (KeeperException e) {e.printStackTrace();} catch (InterruptedException e) {e.printStackTrace();}}});} }

    4.4測(cè)試

    1)在 Linux 命令行上操作增加減少服務(wù)器
    (1)啟動(dòng) DistributeClient 客戶端

    (2)在hadoop102上zk的客戶端/servers 目錄上創(chuàng)建臨時(shí)帶序號(hào)節(jié)點(diǎn)

    [zk: localhost:2181(CONNECTED) 1] create -e -s /servers/hadoop102 "hadoop102" [zk: localhost:2181(CONNECTED) 2] create -e -s /servers/hadoop103 "hadoop103"

    (3)觀察 Idea 控制臺(tái)變化 [hadoop102, hadoop103]

    (4)執(zhí)行刪除操作

    [zk: localhost:2181(CONNECTED) 8] delete /servers/hadoop1020000000000

    (5)觀察 Idea 控制臺(tái)變化 [hadoop103]

    2)在 Idea 上操作增加減少服務(wù)器
    (1)啟動(dòng) DistributeClient 客戶端(如果已經(jīng)啟動(dòng)過,不需要重啟)
    (2)啟動(dòng) DistributeServer 服務(wù)端
    ①點(diǎn)擊 Edit Configurations…

    ②在彈出的窗口中(Program arguments)輸入想啟動(dòng)的主機(jī),例如,hadoop102

    運(yùn)行server

    查看客戶端,檢測(cè)到剛剛下線的hadoop102上線了

    更換參數(shù)hadoop104

    客戶端檢測(cè)

    5. 分布式鎖的概念

    5.1 分布式鎖概念

    分布式鎖:
    "進(jìn)程 1"在使用該資源的時(shí)候,會(huì)先去獲得鎖,"進(jìn)程 1"獲得鎖以后會(huì)對(duì)該資源保持獨(dú)占,這樣其他進(jìn)程就無法訪問該資源,"進(jìn)程 1"用完該資源以后就將鎖釋放掉,讓其他進(jìn)程來獲得鎖,那么通過這個(gè)鎖機(jī)制,我們就能保證了分布式系統(tǒng)中多個(gè)進(jìn)程能夠有序的訪問該臨界資源。那么我們把這個(gè)分布式環(huán)境下的這個(gè)鎖叫作分布式鎖。

    1)接收到請(qǐng)求后,在/locks節(jié)點(diǎn)下創(chuàng)建一個(gè)臨時(shí)順序節(jié)點(diǎn)
    客戶端訪問集群,創(chuàng)建臨時(shí)帶序號(hào)的節(jié)點(diǎn),有n多個(gè)客戶端,在這個(gè)目錄下創(chuàng)建自己的節(jié)點(diǎn)
    2)判斷自己是不是當(dāng)前節(jié)點(diǎn)下最小的節(jié)點(diǎn):是,獲取到鎖;不是,對(duì)前一個(gè)節(jié)點(diǎn)進(jìn)行監(jiān)聽
    3)獲取到鎖,處理完業(yè)務(wù)后,delete節(jié)點(diǎn)釋放鎖,然后下面的節(jié)點(diǎn)將收到通知,重復(fù)第二步判斷

    客戶端在目錄下創(chuàng)建臨時(shí)帶序號(hào)的節(jié)點(diǎn),序號(hào)小的節(jié)點(diǎn)優(yōu)先拿到鎖進(jìn)行相關(guān)業(yè)務(wù)的操作,其他節(jié)點(diǎn)如果發(fā)現(xiàn)自己不是序號(hào)最小的節(jié)點(diǎn)就監(jiān)聽前一個(gè)節(jié)點(diǎn),前一個(gè)節(jié)點(diǎn)如果釋放,則立即獲得這把鎖

    5.2 原生 Zookeeper 實(shí)現(xiàn)分布式鎖案例

    1)分布式鎖實(shí)現(xiàn)

    package com.leokadia.case2;import org.apache.zookeeper.*; import org.apache.zookeeper.data.Stat;import java.io.IOException; import java.util.Collections; import java.util.List; import java.util.concurrent.CountDownLatch;public class DistributedLock {private final String connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";private final int sessionTimeout = 2000;private final ZooKeeper zk;private CountDownLatch connectLatch = new CountDownLatch(1);private CountDownLatch waitLatch = new CountDownLatch(1);private String waitPath;private String currentMode;public DistributedLock() throws IOException, InterruptedException, KeeperException {// 獲取連接zk = new ZooKeeper(connectString, sessionTimeout, new Watcher() {@Overridepublic void process(WatchedEvent watchedEvent) {// connectLatch 如果連接上zk 可以釋放if (watchedEvent.getState() == Event.KeeperState.SyncConnected){connectLatch.countDown();}// waitLatch 需要釋放if (watchedEvent.getType()== Event.EventType.NodeDeleted && watchedEvent.getPath().equals(waitPath)){waitLatch.countDown();}}});// 等待zk正常連接后,往下走程序connectLatch.await();// 判斷根節(jié)點(diǎn)/locks是否存在Stat stat = zk.exists("/locks", false);if (stat == null) {// 創(chuàng)建一下根節(jié)點(diǎn)zk.create("/locks", "locks".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);}}// 對(duì)zk加鎖 判斷是否是序號(hào)最小public void zklock() {// 創(chuàng)建對(duì)應(yīng)的臨時(shí)帶序號(hào)節(jié)點(diǎn)try {currentMode = zk.create("/locks/" + "seq-", null, ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);// wait一小會(huì), 讓結(jié)果更清晰一些Thread.sleep(10);// 判斷創(chuàng)建的節(jié)點(diǎn)是否是最小的序號(hào)節(jié)點(diǎn),如果是獲取到鎖;如果不是,監(jiān)聽他序號(hào)前一個(gè)節(jié)點(diǎn)List<String> children = zk.getChildren("/locks", false);// 如果children 只有一個(gè)值,那就直接獲取鎖; 如果有多個(gè)節(jié)點(diǎn),需要判斷,誰最小if (children.size() == 1) {return;} else {Collections.sort(children);// 獲取節(jié)點(diǎn)名稱 seq-00000000String thisNode = currentMode.substring("/locks/".length());// 通過seq-00000000獲取該節(jié)點(diǎn)在children集合的位置int index = children.indexOf(thisNode);// 判斷if (index == -1) {System.out.println("數(shù)據(jù)異常");} else if (index == 0) {// 就一個(gè)節(jié)點(diǎn),可以獲取鎖了return;} else {// 需要監(jiān)聽 他前一個(gè)節(jié)點(diǎn)變化waitPath = "/locks/" + children.get(index - 1);zk.getData(waitPath,true,new Stat());// 等待監(jiān)聽waitLatch.await();return;}}} catch (KeeperException e) {e.printStackTrace();} catch (InterruptedException e) {e.printStackTrace();}}// 解鎖public void unZkLock() {// 刪除節(jié)點(diǎn)try {zk.delete(this.currentMode,-1);} catch (InterruptedException e) {e.printStackTrace();} catch (KeeperException e) {e.printStackTrace();}} }

    2)分布式鎖測(cè)試
    (1)創(chuàng)建兩個(gè)線程

    package com.leokadia.case2;import org.apache.zookeeper.KeeperException;import java.io.IOException;public class DistributedLockTest {public static void main(String[] args) throws InterruptedException, IOException, KeeperException {final DistributedLock lock1 = new DistributedLock();final DistributedLock lock2 = new DistributedLock();new Thread(new Runnable() {@Overridepublic void run() {try {lock1.zklock();System.out.println("線程1 啟動(dòng),獲取到鎖");Thread.sleep(5 * 1000);lock1.unZkLock();System.out.println("線程1 釋放鎖");} catch (InterruptedException e) {e.printStackTrace();}}}).start();new Thread(new Runnable() {@Overridepublic void run() {try {lock2.zklock();System.out.println("線程2 啟動(dòng),獲取到鎖");Thread.sleep(5 * 1000);lock2.unZkLock();System.out.println("線程2 釋放鎖");} catch (InterruptedException e) {e.printStackTrace();}}}).start();} }

    (2)觀察控制臺(tái)變化:

    也有可能線程2先獲取到鎖

    5.3 Curator 框架實(shí)現(xiàn)分布式鎖案例

    1)原生的 Java API 開發(fā)存在的問題
    (1)會(huì)話連接是異步的,需要自己去處理。比如使用 CountDownLatch
    (2)Watch 需要重復(fù)注冊(cè),不然就不能生效
    (3)開發(fā)的復(fù)雜性還是比較高的
    (4)不支持多節(jié)點(diǎn)刪除和創(chuàng)建。需要自己去遞歸
    2)Curator 是一個(gè)專門解決分布式鎖的框架,解決了原生 JavaAPI 開發(fā)分布式遇到的問題。 詳情請(qǐng)查看官方文檔:https://curator.apache.org/index.html
    3)Curator 案例實(shí)操
    (1)添加依賴

    <dependency><groupId>org.apache.curator</groupId><artifactId>curator-framework</artifactId><version>4.3.0</version></dependency><dependency><groupId>org.apache.curator</groupId><artifactId>curator-recipes</artifactId><version>4.3.0</version></dependency><dependency><groupId>org.apache.curator</groupId><artifactId>curator-client</artifactId><version>4.3.0</version></dependency>

    (2)代碼實(shí)現(xiàn)

    package com.leokadia.case3;import org.apache.curator.framework.CuratorFramework; import org.apache.curator.framework.CuratorFrameworkFactory; import org.apache.curator.framework.recipes.locks.InterProcessMutex; import org.apache.curator.retry.ExponentialBackoffRetry;public class CuratorLockTest {public static void main(String[] args) {// 創(chuàng)建分布式鎖1InterProcessMutex lock1 = new InterProcessMutex(getCuratorFramework(), "/locks");// 創(chuàng)建分布式鎖2InterProcessMutex lock2 = new InterProcessMutex(getCuratorFramework(), "/locks");new Thread(new Runnable() {@Overridepublic void run() {try {lock1.acquire();System.out.println("線程1 獲取到鎖");lock1.acquire();System.out.println("線程1 再次獲取到鎖");Thread.sleep(5 * 1000);lock1.release();System.out.println("線程1 釋放鎖");lock1.release();System.out.println("線程1 再次釋放鎖");} catch (Exception e) {e.printStackTrace();}}}).start();new Thread(new Runnable() {@Overridepublic void run() {try {lock2.acquire();System.out.println("線程2 獲取到鎖");lock2.acquire();System.out.println("線程2 再次獲取到鎖");Thread.sleep(5 * 1000);lock2.release();System.out.println("線程2 釋放鎖");lock2.release();System.out.println("線程2 再次釋放鎖");} catch (Exception e) {e.printStackTrace();}}}).start();}private static CuratorFramework getCuratorFramework() {ExponentialBackoffRetry policy = new ExponentialBackoffRetry(3000, 3);CuratorFramework client = CuratorFrameworkFactory.builder().connectString("hadoop102:2181,hadoop103:2181,hadoop104:2181").connectionTimeoutMs(2000).sessionTimeoutMs(2000).retryPolicy(policy).build();// 啟動(dòng)客戶端client.start();System.out.println("zookeeper 啟動(dòng)成功");return client;} }

    (2)觀察控制臺(tái)變化:
    線程 1 獲取鎖
    線程 1 再次獲取鎖
    線程 1 釋放鎖
    線程 1 再次釋放鎖
    線程 2 獲取鎖
    線程 2 再次獲取鎖
    線程 2 釋放鎖
    線程 2 再次釋放鎖

    第4章 Zookeeper內(nèi)部原理

    這一部分對(duì)上述曾經(jīng)提到過的內(nèi)部原理進(jìn)行總結(jié),并闡述Zookeeper的一些算法基礎(chǔ)
    6.1 節(jié)點(diǎn)類型
    持久(Persistent):客戶端和服務(wù)器端斷開連接后,創(chuàng)建的節(jié)點(diǎn)不刪除
    短暫(Ephemeral):客戶端和服務(wù)器端斷開連接后,創(chuàng)建的節(jié)點(diǎn)自己刪除

    (1)持久化目錄節(jié)點(diǎn):客戶端與Zookeeper斷開連接后,該節(jié)點(diǎn)依舊存在
    (2)持久化順序編號(hào)目錄節(jié)點(diǎn):客戶端與Zookeeper斷開連接后,該節(jié)點(diǎn)依舊存在,只是Zookeeper給該節(jié)點(diǎn)名稱進(jìn)行順序編號(hào)
    (3)臨時(shí)目錄節(jié)點(diǎn):客戶端與Zookeeper斷開連接后,該節(jié)點(diǎn)被刪除
    (4)臨時(shí)順序編號(hào)目錄節(jié)點(diǎn):客戶端與 Zookeeper 斷開連接后,該節(jié)點(diǎn)被刪除,只是 Zookeeper給該節(jié)點(diǎn)名稱進(jìn)行順序編號(hào)。
    說明:創(chuàng)建znode時(shí)設(shè)置順序標(biāo)識(shí),znode名稱后會(huì)附加一個(gè)值,順序號(hào)是一個(gè)單調(diào)遞增的計(jì)數(shù)器,由父節(jié)點(diǎn)維護(hù)
    注意:在分布式系統(tǒng)中,順序號(hào)可以被用于為所有的事件進(jìn)行全局排序,這樣客戶端可以通過順序號(hào)推斷事件的順序

    6.2 Stat結(jié)構(gòu)體(節(jié)點(diǎn)的詳細(xì)數(shù)據(jù))
    (1)czxid-創(chuàng)建節(jié)點(diǎn)的事務(wù)zxid
    每次修改ZooKeeper狀態(tài)都會(huì)收到一個(gè)zxid形式的時(shí)間戳,也就是ZooKeeper事務(wù)ID。
    事務(wù)ID是ZooKeeper中所有修改總的次序。每個(gè)修改都有唯一的zxid,如果zxid1小于zxid2,那么zxid1在zxid2之前發(fā)生。
    (2)ctime - znode被創(chuàng)建的毫秒數(shù)(從1970年開始)
    (3)mzxid - znode最后更新的事務(wù)zxid
    (4)mtime - znode最后修改的毫秒數(shù)(從1970年開始)
    (5)pZxid-znode最后更新的子節(jié)點(diǎn)zxid
    (6)cversion - znode子節(jié)點(diǎn)變化號(hào),znode子節(jié)點(diǎn)修改次數(shù)
    (7)dataversion - znode數(shù)據(jù)變化號(hào)
    (8)aclVersion - znode訪問控制列表的變化號(hào)
    (9)ephemeralOwner- 如果是臨時(shí)節(jié)點(diǎn),這個(gè)是znode擁有者的session id。如果不是臨時(shí)節(jié)點(diǎn)則是0。
    (10)dataLength- znode的數(shù)據(jù)長(zhǎng)度
    (11)numChildren - znode子節(jié)點(diǎn)數(shù)量
    6.3 監(jiān)聽器原理
    客戶端注冊(cè)監(jiān)聽它關(guān)心的目錄節(jié)點(diǎn),當(dāng)目錄節(jié)點(diǎn)發(fā)生變化(數(shù)據(jù)改變、節(jié)點(diǎn)刪除、子目 錄節(jié)點(diǎn)增加刪除)時(shí),ZooKeeper 會(huì)通知客戶端。監(jiān)聽機(jī)制保證 ZooKeeper 保存的任何的數(shù) 據(jù)的任何改變都能快速的響應(yīng)到監(jiān)聽了該節(jié)點(diǎn)的應(yīng)用程序。
    1、監(jiān)聽原理詳解
    1)首先在要有一個(gè)main()線程
    2)在main線程中創(chuàng)建Zookeeper客戶端,這時(shí)就會(huì)創(chuàng)建兩個(gè)線程,一個(gè)負(fù)責(zé)網(wǎng)絡(luò)連接通信(connet),一個(gè)負(fù)責(zé)監(jiān)聽(listener)。
    3)通過connect線程將注冊(cè)的監(jiān)聽事件發(fā)送給Zookeeper。
    4)在Zookeeper的注冊(cè)監(jiān)聽器列表中將注冊(cè)的監(jiān)聽事件添加到列表中。
    5)Zookeeper監(jiān)聽到有數(shù)據(jù)或路徑變化,就會(huì)將這個(gè)消息發(fā)送給listener線程。
    6)listener線程內(nèi)部調(diào)用了process()方法。

    2、常見的監(jiān)聽
    1)監(jiān)聽節(jié)點(diǎn)數(shù)據(jù)的變化
    get path [watch]
    2)監(jiān)聽子節(jié)點(diǎn)增減的變化
    ls path [watch]
    6.4 選舉機(jī)制
    (1)半數(shù)機(jī)制:集群中半數(shù)以上機(jī)器存活,集群可用。所以Zookeeper適合安裝奇數(shù)臺(tái)服務(wù)器。
    (2)Zookeeper雖然在配置文件中并沒有指定Master和Slave。但是,Zookeeper工作時(shí),是有一個(gè)節(jié)點(diǎn)為L(zhǎng)eader,其他則為Follower,Leader是通過內(nèi)部的選舉機(jī)制臨時(shí)產(chǎn)生的。
    (3)以一個(gè)簡(jiǎn)單的例子來說明整個(gè)選舉的過程。
    假設(shè)有五臺(tái)服務(wù)器組成的Zookeeper集群,它們的id從1-5,同時(shí)它們都是最新啟動(dòng)的,也就是沒有歷史數(shù)據(jù),在存放數(shù)據(jù)量這一點(diǎn)上,都是一樣的。假設(shè)這些服務(wù)器依序啟動(dòng),來看看會(huì)發(fā)生什么。

    Zookeeper的選舉機(jī)制
    6.4.1 第一次啟動(dòng)
    (1)服務(wù)器1啟動(dòng),發(fā)起一次選舉。服務(wù)器1投自己一票。此時(shí)服務(wù)器1票數(shù)一票,不夠半數(shù)以上(3票),選舉無法完成,服務(wù)器1狀態(tài)保持為L(zhǎng)OOKING;

    (2)服務(wù)器2啟動(dòng),再發(fā)起一次選舉。服務(wù)器1和2分別投自己一票并交換選票信息:此時(shí)服務(wù)器1發(fā)現(xiàn)服務(wù)器2的myid比自己目前投票推舉的(服務(wù)器1)大,更改選票為推舉服務(wù)器2。此時(shí)服務(wù)器1票數(shù)0票,服務(wù)器2票數(shù)2票,沒有半數(shù)以上結(jié)果,選舉無法完成,服務(wù)器1,2狀態(tài)保持LOOKING

    (3)服務(wù)器3啟動(dòng),發(fā)起一次選舉。先投自己一票,此時(shí)服務(wù)器1和2發(fā)現(xiàn)服務(wù)器3的myid比自己目前投票推舉的(服務(wù)器2)大,都會(huì)更改選票為服務(wù)器3。此次投票結(jié)果:服務(wù)器1為0票,服務(wù)器2為0票,服務(wù)器3為3票。此時(shí)服務(wù)器3的票數(shù)已經(jīng)超過半數(shù),服務(wù)器3當(dāng)選Leader。服務(wù)器1,2更改狀態(tài)為FOLLOWING,服務(wù)器3更改狀態(tài)為L(zhǎng)EADING;

    (4)服務(wù)器4啟動(dòng),發(fā)起一次選舉。此時(shí)服務(wù)器1,2,3已經(jīng)不是LOOKING狀態(tài),不會(huì)更改選票信息。交換選票信息結(jié)果:服務(wù)器3為3票,服務(wù)器4為1票。此時(shí)服務(wù)器4服從多數(shù),更改選票信息為服務(wù)器3,并更改狀態(tài)為FOLLOWING;
    (5)服務(wù)器5啟動(dòng),同4一樣當(dāng)小弟。

    總結(jié):先選自己,選完之后選票不夠,就會(huì)把選票投給myid大的節(jié)點(diǎn)
    一旦選舉成功后,其他節(jié)點(diǎn)自動(dòng)變成follower狀態(tài),再次啟動(dòng)的節(jié)點(diǎn)

    相關(guān)概念:
    SID:服務(wù)器ID。用來唯一標(biāo)識(shí)一臺(tái) ZooKeeper集群中的機(jī)器,每臺(tái)機(jī)器不能重復(fù),和myid一致。

    ZXID:事務(wù)ID。ZXID是一個(gè)事務(wù)ID,用來標(biāo)識(shí)一次服務(wù)器狀態(tài)的變更。在某一時(shí)刻, 集群中的每臺(tái)機(jī)器的ZXID值不一定完全一致,這和ZooKeeper服務(wù)器對(duì)于客戶端“更新請(qǐng)求”的處理邏輯有關(guān)。

    Epoch:每個(gè)Leader任期的代號(hào)。沒有Leader時(shí)同一輪投票過程中的邏輯時(shí)鐘值是相同的。每投完一次票這個(gè)數(shù)據(jù)就會(huì)增加
    6.4.2 非第一次啟動(dòng)
    (1)當(dāng)ZooKeeper集群中的一臺(tái)服務(wù)器出現(xiàn)以下兩種情況之一時(shí),就會(huì)開始進(jìn)入Leader選舉:
    ? 服務(wù)器初始化啟動(dòng)。
    ? 服務(wù)器運(yùn)行期間無法和Leader保持連接。
    (2)而當(dāng)一臺(tái)機(jī)器進(jìn)入Leader選舉流程時(shí),當(dāng)前集群也可能會(huì)處于以下兩種狀態(tài):
    ? 集群中本來就已經(jīng)存在一個(gè)Leader。
    對(duì)于第一種已經(jīng)存在Leader的情況,機(jī)器試圖去選舉Leader時(shí),會(huì)被告知當(dāng)前服務(wù)器的Leader信息,對(duì)于該機(jī)器來說,僅僅需要和Leader機(jī)器建立連接,并進(jìn)行狀態(tài)同步即可。

    ? 集群中確實(shí)不存在Leader。
    假設(shè)ZooKeeper由5臺(tái)服務(wù)器組成,SID分別為1、2、3、4、5,ZXID分別為8、8、8、7、7,并且此時(shí)SID為3的服務(wù)器是Leader。某一時(shí)刻, 3和5服務(wù)器出現(xiàn)故障,因此開始進(jìn)行Leader選舉。

    選舉Leader規(guī)則: ①EPOCH大的直接勝出 ②EPOCH相同,事務(wù)id大的勝出 ③事務(wù)id相同,服務(wù)器id大的勝出
    6.5 寫數(shù)據(jù)流程

    6.5.1 寫流程之寫入請(qǐng)求直接發(fā)送給Leader節(jié)點(diǎn)

    寫請(qǐng)求給leader,leader將寫請(qǐng)求通知follower,follower寫完之后回復(fù)leader以ack,當(dāng)超過半數(shù)的寫完了,就回復(fù)客戶端寫完了,其余沒寫完的繼續(xù)寫

    6.5.2 寫流程之寫入請(qǐng)求發(fā)送給follower節(jié)點(diǎn)

    follower沒有寫權(quán)限,將寫請(qǐng)求送給有權(quán)限的Leader,Leader先自己寫一份,寫完后,傳達(dá)寫命令給其他的Follower節(jié)點(diǎn),讓他們寫,當(dāng)超過半數(shù)的寫完了,就回復(fù)客戶端寫完了,其余沒寫完的繼續(xù)寫

    6.6 拜占庭將軍問題

    拜占庭將軍問題是一個(gè)協(xié)議問題,拜占庭帝國(guó)軍隊(duì)的將軍們必須全體一致的決定是否攻擊某一支敵軍。問題是這些將軍在地理上是分隔開來的,并且將 軍中存在叛徒。叛徒可以任意行動(dòng)以達(dá)到以下目標(biāo):欺騙某些將軍采取進(jìn)攻行動(dòng);促成一個(gè)不是所有將軍都同意的決定,如當(dāng)將軍們不希望進(jìn)攻時(shí)促成進(jìn)攻 行動(dòng);或者迷惑某些將軍,使他們無法做出決定。如果叛徒達(dá)到了這些目的之一,則任何攻擊行動(dòng)的結(jié)果都是注定要失敗的,只有完全達(dá)成一致的努力才能獲得勝利。
    這個(gè)問題實(shí)際上就是多臺(tái)服務(wù)器處理某一個(gè)一致性問題,解決分布式一致性的經(jīng)典算法之一是下文中的Paxos算法。

    6.4 Paxos算法
    Paxos算法是一種基于消息傳遞且具有高度容錯(cuò)特性的一致性算法。
    分布式系統(tǒng)中的節(jié)點(diǎn)通信存在兩種模型:共享內(nèi)存(Shared memory)和消息傳遞(Messages passing)。基于消息傳遞通信模型的分布式系統(tǒng),不可避免的會(huì)發(fā)生以下錯(cuò)誤:進(jìn)程可能會(huì)慢、被殺死或者重啟,消息可能會(huì)延遲、丟失、重復(fù),在基礎(chǔ) Paxos 場(chǎng)景中,先不考慮可能出現(xiàn)消息篡改即拜占庭錯(cuò)誤的情況。Paxos 算法解決的問題是在一個(gè)可能發(fā)生上述異常的分布式系統(tǒng)中如何就某個(gè)值達(dá)成一致,保證不論發(fā)生以上任何異常,都不會(huì)破壞決議的一致性。

    Paxos算法描述:
    ? 在一個(gè)Paxos系統(tǒng)中,首先將所有節(jié)點(diǎn)劃分為Proposer(提議者),Acceptor(接受者),和 Learner(學(xué)習(xí)者)。(注意:每個(gè)節(jié)點(diǎn)都可以身兼數(shù)職)。

    一個(gè)完整的Paxos算法流程分為三個(gè)階段:
    ? Prepare準(zhǔn)備階段
    ? Proposer向多個(gè)Acceptor發(fā)出Propose請(qǐng)求Promise(承諾)
    ? Acceptor針對(duì)收到的Propose請(qǐng)求進(jìn)行Promise(承諾)
    ? Accept接受階段
    ? Proposer收到多數(shù)Acceptor承諾的Promise后,向Acceptor發(fā)出Propose請(qǐng)求
    ? Acceptor針對(duì)收到的Propose請(qǐng)求進(jìn)行Accept處理
    ? Learn學(xué)習(xí)階段:Proposer將形成的決議發(fā)送給所有Learners

    Paxos算法流程中的每條消息描述如下:

    (1)Prepare: Proposer生成全局唯一且遞增的Proposal ID (可使用時(shí)間戳加Server ID),向所有Acceptors發(fā)送Prepare請(qǐng)求,這里無需攜帶提案內(nèi)容,只攜帶Proposal ID即可。
    (2)Promise: Acceptors收到Prepare請(qǐng)求后,做出“兩個(gè)承諾,一個(gè)應(yīng)答”。
    兩個(gè)承諾:
    ? 不再接受Proposal ID小于等于(注意:這里是<= )當(dāng)前請(qǐng)求的Prepare請(qǐng)求。
    ? 不再接受Proposal ID小于(注意:這里是< )當(dāng)前請(qǐng)求的Propose請(qǐng)求。
    一個(gè)應(yīng)答:
    ? 不違背以前做出的承諾下,回復(fù)已經(jīng)Accept過的提案中Proposal ID最大的那個(gè)提案的Value和Proposal ID,沒有則返回空值。
    (3)Propose: Proposer 收到多數(shù)Acceptors的Promise應(yīng)答后,從應(yīng)答中選擇Proposal ID最大的提案的Value,作為本次要發(fā)起的提案。如果所有應(yīng)答的提案Value均為空值,則可以自己隨意決定提案Value。然后攜帶當(dāng)前Proposal ID,向所有Acceptors發(fā)送Propose請(qǐng)求。
    (4)Accept: Acceptor收到Propose請(qǐng)求后,在不違背自己之前做出的承諾下,接受并持久化當(dāng)前Proposal ID和提案Value。
    (5)Learn: Proposer收到多數(shù)Acceptors的Accept后,決議形成,將形成的決議發(fā)送給所有Learners。
    下面我們針對(duì)上述描述做三種情況的推演舉例:為了簡(jiǎn)化流程,我們這里不設(shè)置Learner。

    Paxos算法缺陷:在網(wǎng)絡(luò)復(fù)雜的情況下,一個(gè)應(yīng)用Paxos算法的分布式系統(tǒng),可能很久無法收斂,甚至陷入活鎖的情況。造成這種情況的原因是系統(tǒng)中有一個(gè)以上的Proposer,多個(gè)Proposers相互爭(zhēng)奪Acceptors,造成遲遲無法達(dá)成一致的情況。針對(duì)這種情況,一種改進(jìn)的Paxos算法被提出:從系統(tǒng)中選出一個(gè)節(jié)點(diǎn)作為L(zhǎng)eader,只有Leader能夠發(fā)起提案。這樣,一次Paxos流程中只有一個(gè)Proposer,不會(huì)出現(xiàn)活鎖的情況,此時(shí)只會(huì)出現(xiàn)例子中第一種情況。

    總結(jié)

    以上是生活随笔為你收集整理的超全zookeeper知识点与实战的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。