Zookeeper詳細使用解析!分散式架構中的協調服務框架最佳選型實踐

Zookeeper概念

  • Zookeeper是分散式協調服務,用於管理大型主機,在分散式環境中協調和管理服務是很複雜的過程,Zookeeper通過簡單的架構和API解決了這個問題

Zookeeper實現分散式鎖

分散式鎖三要素:
			加鎖
			解鎖
			鎖超時
  • Zookeeper數據結構類似樹結構,由節點Znode組成
  • Znode分為四種類型:
    • 持久節點(PERSISTENT): 默認節點類型,創建節點的客戶端與Zookeeper斷開連接後,節點依舊存在
    • 持久節點順序節點(PERSISTENT_SEQUENTIAL): 持久節點順序節點就是在創建持久節點時,Zookeeper根據創建節點的時間順序給節點進行編號
    • 臨時節點(EPHEMERAL): 創建節點的客戶端與Zookeeper斷開連接後,臨時節點會被刪除
    • 臨時節點順序節點(EPHEMERAL_SEQUENTIAL): 臨時節點順序節點就是在創建臨時節點時,Zookeeper根據創建節點的時間順序給節點進行編號
    • 應用Zookeeper的臨時順序節點,實現分散式鎖

Zookeeper與Redis分散式鎖比較:

分散式鎖 Zookeeper Redis
優點 1.有封裝好的框架,容易實現
2.有等待鎖隊列,提升搶鎖的效率
Set和Del指令性能高
缺點 添加和刪除節點性能低 1.實現複雜,需要考慮原子性,誤刪,鎖超時問題
2.沒有等待鎖的隊列,只能客戶端自旋來等鎖,效率低

Zookeeper的數據模型

  • 類似數據結構中的樹,文件系統中的目錄
  • Zookeeper的數據存儲基於節點Znode
  • Znode的引用方式是路徑引用,每一個Znode節點擁有唯一的路徑

Znode中的元素

  • data: Znode存儲的數據資訊
  • ACL: 記錄Znode的訪問許可權,即哪些進程和IP可以訪問本節點
  • stat: Znode的各種元數據(數據的數據)
  • child: 當前節點的子節點引用
    Zookeeper的應用場景是讀多寫少的應用場景:Znode不用來存儲大規模的業務數據,用於存儲少量的狀態和配置資訊(Znode存儲數據不能超過1MB)

Zookeeper基本操作

  • 創建節點:create
  • 刪除節點:delete
  • 判斷節點是否存在:exists
  • 獲得一個節點的數據:getData
  • 設置一個節點的數據:setData
  • 獲取節點下的所有子節點:getChildren
    exists,getData,getChildren屬於讀操作,Zookeeper客戶端在請求讀操作時,可以選擇是否設置watch

Zookeeper事件通知

  • Watch可以理解成註冊在特定Znode上的觸發器
  • 當Znode發生改變的時候,調用create,delete,setData方法,將會觸發Znode上註冊的對應事件,請求的Watch的客戶端會接收到非同步通知
  • Zookeeper事件通知的交互過程:
    • 客戶端調用getData方法,watch的參數是true,服務端接收到請求,返回節點數據,在對應的Hash表中插入被Watch的Znode路徑以及Watcher列表
    • 當被Watch的Znode刪除,服務端會查找Hash表,找到該Znode對應的所有Watcher,非同步通知客戶端,並且刪除Hash表中對應的key-value

Zookeeper的一致性

  • Zookeeper Service集群是一主多從結構
  • 在更新數據時,首先更新到主伺服器,再同步到從伺服器
  • 在讀數據時,直接讀取任意節點
  • 採用ZAB協議,為了保證主從節點數據的一致性

ZAB協議

  • ZAB(Zookeeper Automic Broadcast): 解決Zookeeper集群崩潰恢復,主從數據同步問題
  • ZAB三種節點狀態:
    • Looking:選舉狀態
    • Following:Following節點(從節點)所處的狀態
    • Leading:Leading(主節點)所處的狀態
  • 最大ZXID: 節點本地的最新事務編號,包含epoch計數兩部分

ZAB集群崩潰恢復

  • 當Zookeeper的主節點伺服器宕機後,集群就會進行崩潰恢復,分成三個階段:
    • Leader election(選舉階段):
      • 集群中的節點處於Looking狀態,各自向其它節點發起投票,投票當中包含自己伺服器的ID和最新事務ID(ZXID)
      • 節點用自身的ZXID和其它節點收到的ZXID作比較,如果發現其它節點的ZXID比自身大,即數據比自己新,就重新發起投票,投票給目前已知最大ZXID所屬節點
      • 每次投票後,伺服器都會統計投票數量,判斷是否某個節點得到半數以上的投票,這樣的節點將會成為準Leader,狀態變為Leading,其它節點狀態變為Following
    • Discovery(發現階段):
      • 在從節點發現最新的ZXID和事務日誌,目的是為了防止在意外情況,選舉產生多個Leader
      • Leader接收所有Follower發送的最新的epoch值,Leader從中選出最大的epoch,基於此值+1,生成新的epoch分發給各個Follower
      • 各個Follower接收到最新的epoch,返回ACK(響應碼)給Leader,帶上各自最大的ZXID和歷史事務日誌,Leader選出最大的ZXID,並更新自身歷史日誌
    • Synchronization(同步階段):
      • 將Leader收集得到的最新歷史事務日誌,同步給集群中的所有Follower,只有當半數Follower同步成功,這個准Leader才能成為正式Leader.集群崩潰恢復正式完成

ZAB主從數據同步

  • Broadcast
    Zookeeper常規情況下更新數據的時候,由Leader廣播到所有的Follower:

    • 客戶端發出寫入數據請求給任意的Follower
    • Follower把寫入數據請求轉發給Leader
    • Leader採取二階段提交方式:(先保留提交日誌,再提交數據)先發送Propose廣播給Follower
    • Follower接收到Propose消息,寫入日誌成功後,返回ACK消息給Leader
    • Leader接收到半數以上的ACK消息,返回成功給客戶端,並且廣播commit請求給Follower
數據一致性:
		強一致性
		弱一致性
		順序一致性:Zookeeper,依靠事務ID和版本號,保證數據的更新和讀取是有序的

Zookeeper應用場景

  • 分散式鎖: 應用Zookeeper的臨時順序節點,實現分散式鎖
  • 服務註冊與發現: 利用Znode和Watcher,實現分散式服務註冊與發現,如Dubbo
  • 共享配置和狀態資訊: Redis的分散式解決方案Codls,利用Zookeeper存放數據路由表和codls-proxy節點元資訊,同時colds-config發起的命令都會通過Zookeeper同步到各個存活的codls-proxy
  • 高可用實現: Kafka,HBase,Hadoop都依靠Zookeeper同步節點資訊,實現高可用

基於Docker創建Zookeeper

1.創建docker-compose.yml
zoo:
	image: zookeeper
	restart: always
	hostname: zoo
	ports:
		- 2181:2181
	environment:
		- ZOO_MY_ID: 1
		- ZOO_SERVER: server.1(id)=zoo(IP):2888:3888
2.執行docker-compose up -d

Zookeeper三種工作模式

  • 單機模式: 存在單點故障
  • 集群模式: 在多台伺服器上部署Zookeeper集群
  • 偽集群模式: 在同一台伺服器上運行多個Zookeeper實例,仍然有單點故障問題,其中配置的埠號要錯開

Zookeeper三種埠號

  • 2181: 客戶端連接Zookeeper集群使用的監聽埠號
  • 3888: 選舉Leader使用
  • 2888: 集群內機器通訊使用(Leader和Follower之間數據同步使用的埠號,Leader監聽此埠)