elasticsearch集群擴容和容災

  • 2019 年 10 月 3 日
  • 筆記

elasticsearch專欄:https://www.cnblogs.com/hello-shf/category/1550315.html

一、集群健康

Elasticsearch 的集群監控資訊中包含了許多的統計數據,其中最為重要的一項就是集群健康,它在 status 欄位中展示為 green 、 yellow 或者 red。

在kibana中執行:GET /_cat/health?v

1 epoch      timestamp cluster        status node.total node.data shards pri relo init unassign pending_tasks max_task_wait_time active_shards_percent  2 1568794410 08:13:30  my-application yellow          1         1     47  47    0    0       40             0                  -                 54.0%

其中我們可以看到當前我本地的集群健康狀態是yellow ,但這裡問題來了,集群的健康狀況是如何進行判斷的呢?

green(很健康)      所有的主分片和副本分片都正常運行。  yellow(亞健康)      所有的主分片都正常運行,但不是所有的副本分片都正常運行。  red(不健康)      有主分片沒能正常運行。

 注意:

我本地只配置了一個單節點的elasticsearch,因為primary shard和replica shard是不能分配到一個節點上的所以,在我本地的elasticsearch中是不存在replica shard的,所以健康狀況為yellow。

 

二、shard和replica

為了將數據添加到Elasticsearch,我們需要索引(index)——一個存儲關聯數據的地方。實際 上,索引只是一個用來指向一個或多個分片(shards)的“邏輯命名空間(logical namespace)”. 一個分片(shard)是一個最小級別“工作單元(worker unit)”,它只是保存了索引中所有數據的一 部分。道分片就是一個Lucene實例,並且它本身就是一個完整的搜索引擎。我們的文檔存儲在分片中,並且在分片中被索引,但是我們的應用程式不會直接與它們通訊,取而代之的是,直接與索引通訊。 分片是Elasticsearch在集群中分發數據的關鍵。把分片想像成數據的容器。文檔存儲在分片中,然後分片分配到你集群中的節點上。當你的集群擴容或縮小,Elasticsearch將會自動在你的節點間遷移分片,以使集群保持平衡。 分片可以是主分片(primary shard)或者是複製分片(replica shard)。

你索引中的每個文檔屬於一個單獨的主分片,所以主分片的數量決定了索引最多能存儲多少數據。 理論上主分片能存儲的數據大小是沒有限制的,限制取決於你實際的使用情況。分片的最大容量完全取決於你的使用狀況:硬體存儲的大小、文檔的大小和複雜度、如何索引 和查詢你的文檔,以及你期望的響應時間。

複製分片只是主分片的一個副本,它可以防止硬體故障導致的數據丟失,同時可以提供讀請 求,比如搜索或者從別的shard取迴文檔。 當索引創建完成的時候,主分片的數量就固定了,但是複製分片的數量可以隨時調整。 讓我們在集群中唯一一個空節點上創建一個叫做 blogs 的索引。默認情況下,一個索引被分配5個主分片,一個主分片默認只有一個複製分片。

重點:  shard分為兩種:      1,primary shard --- 主分片      2,replica shard --- 複製分片(或者稱為備份分片或者副本分片)

 

需要注意的是,在業界有一個約定俗稱的東西,單說一個單詞shard一般指的是primary shard,而單說一個單詞replica就是指的replica shard。

另外一個需要注意的是replica shard是相對於索引而言的,如果說當前index有一個複製分片,那麼相對於主分片來說就是每一個主分片都有一個複製分片,即如果有5個主分片就有5個複製分片,並且主分片和複製分片之間是一一對應的關係。

很重要的一點:primary shard不能和replica shard在同一個節點上。重要的事情說三遍:

primary shard不能和replica shard在同一個節點上

primary shard不能和replica shard在同一個節點上

primary shard不能和replica shard在同一個節點上

所以es最小的高可用配置為兩台伺服器。 

 

三、master節點、協調節點和節點對等特性

elasticsearch同大多數的分散式架構,也會進行主節點的選舉,elasticsearch選舉出來的主節點主要承擔一下工作:

1 集群層面的設置  2 集群內的節點維護  3 集群內的索引、映射(mapping)、分詞器的維護  4 集群內的分片維護

不同於hadoop、mysql等的主節點,elasticsearch的master將不會成為整個集群環境的流量入口,即其並不獨自承擔文檔級別的變更和搜索(curd),也就意味著當流量暴增,主節點的性能將不會成為整個集群環境的性能瓶頸。這就是elasticsearch的節點對等特性。

節點對等:

所謂的節點對等就是在集群中每個節點扮演的角色都是平等的,也就意味著每個節點都能成為集群的流量入口,當請求進入到某個節點,該節點就會暫時充當協調節點的角色,對請求進行路由和處理。這是一個區別於其他分散式中間件的很重要的特性。節點對等的特性讓elasticsearch具備了負載均衡的特性。在後面對document的寫入和搜索會詳細介紹該牛叉的特性。

協調節點:

通過上面的分析,我們可以得出一個結論,協調節點其實就是請求命中的那個節點。該節點將承擔當前請求的路由工作。

 

四、擴容

一般的擴容模式分為兩種,一種是水平擴容,一種是垂直擴容。

4.1、垂直擴容:

所謂的垂直擴容就是升級伺服器,買性能更好的,更貴的然後替換原來的伺服器,這種擴容方式不推薦使用。因為單台伺服器的性能總是有瓶頸的。

4.2、水平擴容:

水平擴容也稱為橫向擴展,很簡單就是增加伺服器的數量,這種擴容方式可持續性強,將眾多普通伺服器組織到一起就能形成強大的計算能力。水平擴容 VS 垂直擴容用一句俗語來說再合適不過了:三個臭皮匠賽過諸葛亮。

4.3、垂直擴容的過程分析

上面我們詳細介紹了分片,master和協調節點,接下來我們通過畫圖的方式一步步帶大家看看橫向擴容的過程。

首先呢需要鋪墊一點關於自定義索引shard數量的操作

1 PUT /student  2 {  3    "settings" : {  4       "number_of_shards" : 3,  5       "number_of_replicas" : 1  6    }  7 }

 

以上程式碼意味著我們創建的索引student將會分配三個primary shard和三個replica shard(至於上面為什麼是1,那是相對於索引來說的,前面解釋過)。

4.3.1、一台伺服器

當我們只有一台伺服器的時候,shard是怎麼分布的呢?

 註:P代表primary shard, R代表replica shard。明確一點在後面的描述中默認一個es節點在一台伺服器上。

分析一下上面的過程,首先需要明確的兩點:

1,primary shard和replica shard不能再同一台機器上,因為replica和shard在同一個節點上就起不到副本的作用了。

2,當集群中只有一個節點的時候,node1節點將成為主節點。它將臨時管理集群級別的一些變更,例如新建或 刪除索引、增加或移除節點等。

明確了上面兩點也就很簡單了,因為集群中只有一個節點,該節點將直接被選舉為master節點。其次我們為student索引分配了三個shard,由於只有一個節點,所以三個primary shard都被分配到該節點,replica shard將不會被分配。此時集群的健康狀況為yellow。

 

4.3.2、增加一台伺服器

接著上面繼續,我們增加一台伺服器,此時shard是如何分配的呢?

Rebalance(再平衡),當集群中節點數量發生變化時,將會觸發es集群的rebalance,即重新分配shard。Rebalance的原則就是盡量使shard在節點中分布均勻,達到負載均衡的目的。

原先node1節點上有p0、p1、p2三個primary shard,另外三個replica shard還未分配,當集群新增節點node2,觸發集群的Rebalance,另外三個replica shard將被分配到node2上,即如上圖所示。

此時集群中所有的primary shard和replica shard都是active(可用)狀態的所以此時集群的健康狀況為yellow。可見es集群的最小高可用配置就是兩太伺服器。

4.3.3、繼續新增伺服器

 

 

 繼續新增伺服器,集群將再次進行Rebalance,在primary shard和replica shard不能分配到一個節點上的原則,這次rebalance同樣本著使shard均勻分布的原則,將會從node1上將P1,P2兩個primary shard分配到node1,node2上面,然後將node2在primary shard和replica shard不能分配到一台機器上的原則上將另外兩個replica shard分配到node1和node2上面。

注意:具體的分配方式上,可能是P0在node2上面也有可能在node3上面,但是只要本著Rebalance的原則將shard均勻分布達到負載均衡即可。

 

五、集群容災

分散式的集群是一定要具備容災能力的,對於es集群同樣如此,那es集群是如何進行容災的呢?接下來聽我娓娓道來。

在前文我們詳細講解了primary shard和replica shard。replica shard作為primary shard的副本當集群中的節點發生故障,replica shard將被提升為primary shard。具體的演示如下

 集群中有三台伺服器,其中node1節點為master節點,primary shard 和 replica shard的分布如上圖所示。此時假設node1發生宕機,也就是master節點發生宕機。此時集群的健康狀態為red,為什麼呢?因為不是所有的primary shard都是active的。

具體的容災過程如下:

1,重新選舉master節點,當es集群中的master節點發生故障,此時es集群將再次進行master的選舉,選舉出一個新的master節點。假設此時新的主節點為node2。

2,node2被選舉為新的master節點,node2將作為master行駛其分片分配的任務。

3,replica shard升級,此時master節點會尋找node1節點上的P0分片的replica shard,發現其副本在node2節點上,然後將R0提升為primary shard。這個升級過程是瞬間完成的,就像按下一個開關一樣。因為每一個shard其實都是lucene的實例。此時集群如下所示,集群的健康狀態為yellow,因為不是每一個replica shard都是active的。

容災的過程如上所示,其實這也是一般分散式中間件容災備份的一般手段。如果你很了解kafka的話,這個就很容易理解了。

 

 

 

  參考文獻:

  《elasticsearch-權威指南》

 

  如有錯誤的地方還請留言指正。

  原創不易,轉載請註明原文地址:https://www.cnblogs.com/hello-shf/p/11543468.html