AI+雲原生,把衛星遙感虐的死去活來

摘要:遙感影像,作為地球自拍照,能夠從更廣闊的視角,為人們提供更多維度的輔助信息,來幫助人類感知自然資源、農林水利、交通災害等多領域信息。

本文分享自華為雲社區《AI+雲原生,把衛星遙感虐的死去活來》,作者:tsjsdbd。

AI牛啊,雲原生牛啊,所以1+1>2?

遙感影像,作為地球自拍照,能夠從更廣闊的視角,為人們提供更多維度的輔助信息,來幫助人類感知自然資源、農林水利、交通災害等多領域信息。

AI技術,可以在很多領域超過人類,關鍵是它是自動的,省時又省力。可顯著提升遙感影像解譯的工作效率,對各類地物元素進行自動化的檢測,例如建築物,河道,道路,農作物等。能為智慧城市發展&治理提供決策依據。

雲原生技術,近年來可謂是一片火熱。易構建,可重複,無依賴等優勢,無論從哪個角度看都與AI算法天生一對。所以大家也可以看到,各領域的AI場景,大都是將AI推理算法運行在Docker容器裏面的。

AI+雲原生這麼6,那麼強強聯手後,地物分類、目標提取、變化檢測等高性能AI解譯不就手到擒來?我們也是這麼認為的,所以基於AI+Kubernetes雲原生,構建了支持遙感影像AI處理的空天地平台。

不過理想是好的,過程卻跟西天取經一般,九九八十一難,最終修成正果。

業務場景介紹

遇到問題的業務場景叫影像融合(Pansharpen),也就是對地球自拍照進行「多鏡頭合作美顏」功能。(可以理解成:手機的多個攝像頭,同時拍照,合併成一張高清彩色大圖)。

所以業務簡單總結就是:讀取2張圖片,生成1張新的圖片。該功能我們放在一個容器裏面執行,每張融合後的結果圖片大約5GB。

問題的關鍵是,一個批次業務量需要處理的是3000多張衛星影像,所以每批任務只需要同時運行完成3000多個容器就OK啦。雲原生YYDS!

業務架構圖示

為了幫助理解,這裡分解使用雲原生架構實現該業務場景的邏輯圖如下:

在雲上,原始數據,以及結果數據,一定是要存放在對象存儲桶裏面的。因為這個數據量,只有對象存儲的價格是合適的。(對象存儲,1毛錢/GB。文件存儲則需要3毛錢/GB)

因為容器之間是互相獨立無影響的,每個容器只需要處理自己的那幅影像就行。例如1號容器處理 1.tif影像;2號容器處理2.tif影像;一次類推。

所以管理程序,只需要投遞對應數量的容器(3000+),並監控每個容器是否成功執行完畢就行(此處為簡化說明,實際業務場景是一個pipeline處理流程)。那麼,需求已經按照雲原生理想的狀態分解,咱們開始起(tang)飛(keng)吧~

註:以下描述的問題,是經過梳理後呈現的,實際問題出現時是互相穿插錯綜複雜的。

K8s死掉了

當作業投遞後,不多久系統就顯示作業紛紛失敗。查看日誌報調用K8s接口失敗,再一看,K8s的Master都已經掛了。。。

K8s-Master處理過程,總結版:

  1. 發現Master掛是因為CPU爆了
  2. 所以擴容Master節點(此次重複N次);
  3. 性能優化:擴容集群節點數量;
  4. 性能優化:容器分批投放;
  5. 性能優化:查詢容器執行進度,少用ListPod接口;

詳細版:

看監控Master節點的CPU已經爆掉了,所以最簡單粗暴的想法就是給Master擴容呀,嘎嘎的擴。於是從4U8G * 3 一路擴容一路測試一路失敗,擴到了32U64G * 3。可以發現CPU還是爆滿。看來簡單的擴容是行不通了。

3000多個容器,投給K8s後,大量的容器都處於Pending狀態(集群整體資源不夠,所以容器都在排隊呢)。而正在Pending的Pod,K8s的Scheduler會不停的輪訓,去判斷能否有資源可以給它安排上。所以這也會給Scheduler巨大的CPU壓力。擴容集群節點數量,可以減少排隊的Pod數量。

另外,既然排隊的太多,不如就把容器分批投遞給K8s吧。於是開始分批次投遞任務,想着別一次把K8s壓垮了。每次投遞數量,減少到1千,然後到500,再到100。

同時,查詢Pod進度的時候,避免使用ListPod接口,改為直接查詢具體的Pod信息。因為List接口,在K8s內部的處理會列出所有Pod信息,處理壓力也很大。

這一套組合拳下來,Master節點終於不掛了。不過,一頭問題按下去了,另一頭問題就冒出來了。

容器跑一半,掛了

雖然Master不掛了,但是當投遞1~2批次作業後,容器又紛紛失敗。

容器掛掉的處理過程,總結版:

  1. 發現容器掛掉是被eviction驅逐了;
  2. Eviction驅逐,發現原因是節點報Disk Pressure(存儲容量滿了);
  3. 於是擴容節點存儲容量;
  4. 延長驅逐容器(主動kill容器)前的容忍時間;

詳細版:

(註:以下問題是定位梳理後,按順序呈現給大家。但其實出問題的時候,順序沒有這麼友好)

容器執行失敗,首先想到的是先看看容器裏面腳本執行的日誌唄:結果報日誌找不到~

於是查詢Pod信息,從event事件中發現有些容器是被Eviction驅逐幹掉了。同時也可以看到,驅逐的原因是 DiskPressure(即節點的存儲滿了)。

當Disk Pressure發生後,節點被打上了驅逐標籤,隨後啟動主動驅逐容器的邏輯:

由於節點進入Eviction驅逐狀態,節點上面的容器,如果在5分鐘後,還沒有運行完,就被Kubelet主動殺死了。(因為K8s想通過幹掉容器來騰出更多資源,從而儘快退出Eviction狀態)。

這裡我們假設每個容器的正常運行時間為1~2個小時,那麼不應該一發生驅動就馬上殺死容器(因為已經執行到一半的容器,殺掉重新執行是有成本浪費的)。我們期望應該盡量等待所有容器都運行結束才動手。所以這個 pod-eviction-timeout 容忍時間,應該設置為24小時(大於每個容器的平均執行時間)。

Disk Pressure的直接原因就是本地盤容量不夠了。所以得進行節點存儲擴容,有2個選擇:1)使用雲存儲EVS(給節點掛載雲存儲)。 2)擴容本地盤(節點自帶本地存儲的VM)。

由於雲存儲(EVS)的帶寬實在太低了,350MB/s。一個節點咱們能同時跑30多個容器,帶寬完全滿足不了。最終選擇使用 i3類型的VM。這種VM自帶本地存儲。並且將8塊NVMe盤,組成Raid0,帶寬還能x8。

對象存儲寫入失敗

容器執行繼續紛紛失敗。

容器往對象存儲寫入失敗處理過程,總結版:

  1. 不直接寫入,而是先寫到本地,然後cp過去。
  2. 將普通對象桶,改為支持文件語義的並行文件桶。

詳細版:

查看日誌發現,腳本在生成新的影像時,往存儲中寫入時出錯:

我們整集群是500核的規模,同時運行的容器數量大概在250個(每個2u2g)。這麼多的容器同時往1個對象存儲桶裏面並發追加寫入。這個應該是導致該IO問題的原因。

對象存儲協議s3fs,本身並不適合大文件的追加寫入。因為它對文件的操作都是整體的,即使你往一個文件追加寫入1位元組,也會導致整個文件重新寫一遍。

最終這裡改為:先往本地生成目標影像文件,然後腳本的最後,再拷貝到對象存儲上。相當於增加一個臨時存儲中轉一下。

在臨時中轉存儲選擇中,2種本地存儲都試過: 1)塊存儲帶寬太低,350MB/s影響整體作業速度。2)可以選擇帶本地存儲的VM,多塊本地存儲組成Raid陣列,帶寬速度都杠杠滴。

同時,華為雲在對象存儲協議上也有一個擴展,使其支持追加寫入這種的POSIX語義,稱為並行文件桶。後續將普通的對象桶,都改為了文件語義桶。以此來支撐大規模的並發追加寫入文件的操作。

K8s計算節點掛了

So,繼續跑任務。但是這容器作業,執行又紛紛失敗鳥~

計算節點掛掉,定位梳理後,總結版:

  1. 計算節點掛掉,是因為好久沒上報K8s心跳了。
  2. 沒上報心跳,是因為kubelet(K8s節點的agent)過得不太好(死掉了)。
  3. 是因為Kubelet的資源被容器搶光了(由於不想容器經常oom kill,並未設置limit限制)
  4. 為了保護kubelet,所有容器全都設置好limit。

詳細版,直接從各類奇葩亂象等問題入手:

  • 容器啟動失敗,報超時錯誤。

  • 然後,什麼PVC共享存儲掛載失敗:

  • 或者,又有些容器無法正常結束(刪不掉)。

  • 查詢節點Kubelet日誌,可以看到充滿了各種超時錯誤:

啊,這麼多的底層容器超時,一開始感覺的Docker的Daemon進程掛了,通過重啟Docker服務來試圖修復問題。

後面繼續定位發現,K8s集群顯示,好多計算節點Unavailable了(節點都死掉啦)。

繼續分析節點不可用(Unavailable),可以發現是Kubelet好久沒有給Master上報心跳了,所以Master認為節點掛了。說明不僅僅是Docker的Daemon受影響,節點的Kubelet也有受影響。

那什麼情況會導致Kubelet,Docker這些主機進程都不正常呢?這個就要提到Kubernetes在調度容器時,所設計的Request和Limit這2個概念了。

Request是K8s用來調度容器到空閑計算節點上的。而Limit則會傳遞給Docker用於限制容器資源上限(觸發上限容易被oom killer 殺掉)。前期我們為了防止作業被殺死,僅為容器設置了Request,沒有設置Limit。也就是每個容器實際可以超出請求的資源量,去搶佔額外的主機資源。大量容器並發時,主機資源會受影響。

考慮到雖然不殺死作業,對用戶挺友好,但是平台自己受不了也不是個事。於是給所有的容器都加上了Limit限制,防止容器超限使用資源,強制用戶進程運行在容器Limit資源之內,超過就Kill它。以此來確保主機進程(如Docker,Kubelet等),一定是有足夠的運行資源的。

K8s計算節點,又掛了

於是,繼續跑任務。不少作業執行又雙叒失敗鳥~

節點又掛了,總結版:

  1. 分析日誌,這次掛是因為PLEG(Pod Lifecycle Event Generator)失敗。
  2. PLEG異常是因為節點上面存留的歷史容器太多(>500個),查詢用時太久超時了。
  3. 及時清理已經運行結束的容器(即使跑完的容器,還是會佔用節點存儲資源)。
  4. 容器接口各種超時(cpu+memory是有limit保護,但是io還是會被搶佔)。
  5. 提升系統磁盤的io性能,防止Docker容器接口(如list等)超時。

詳細版:

現象還是節點Unavailable了,查看Kubelet日誌搜索心跳情況,發現有PLEG is not healthy 的錯誤:

於是搜索PLEG相關的Kubelet日誌,發現該錯誤還挺多:

這個錯誤,是因為kubelet去list當前節點所有容器(包括已經運行結束的容器)時,超時了。看了代碼://github.com/kubernetes/kubernetes/blob/master/pkg/kubelet/pleg/generic.go#L203

kubelet判斷超時的時間,3分鐘的長度是寫死的。所以當pod數量越多,這個超時概率越大。很多場景案例表明,節點上的累計容器數量到達500以上,容易出現PLEG問題。(此處也說明K8s可以更加Flexible一點,超時時長應該動態調整)。

緩解措施就是及時的清理已經運行完畢的容器。但是運行結束的容器一旦清理,容器記錄以及容器日誌也會被清理,所以需要有相應的功能來彌補這些問題(比如日誌採集系統等)。

List所有容器接口,除了容器數量多,IO慢的話,也會導致超時。

這時,從後台可以看到,在投遞作業期間,大量並發容器同時運行時,雲硬盤的寫入帶寬被大量佔用:

對存儲池的衝擊也很大:

這也導致了IO性能變很差,也會一定程度影響list容器接口超時,從而導致PLEG錯誤。

該問題的解決措施:盡量使用的帶本地高速盤的VM,並且將多塊數據盤組成Raid陣列,提高讀寫帶寬。

這樣,該VM作為K8s的節點,節點上的容器都直接讀寫本地盤,io性能較好。(跟大數據集群的節點用法一樣了,強依賴本地shuffle~)。

在這多條措施實施後,後續多批次的作業都可以平穩的運行完。

總結:「AI+雲原生」這條路

雲原生是趨勢,已經成為大家的共識,各領域也都開始以雲原生為底座的業務嘗試。AI是未來,這也是當前不可阻擋的力量。但是當AI踏上這條雲原生的道路卻不那麼一帆風順。至少可以看到,華為雲的雲原生底座(當然,也包括存儲、網絡等周邊基礎設施)還可以有更多的進步空間。

但是,大家也不用擔心太多,因為當前華為雲的空天地平台,在經歷了多年的AI+雲原生的積累,目前可以很穩定的處理PB級每日的遙感影像數據,支撐各類空基、天基、地基等場景,並且在該領域保持絕對領先的戰鬥值。雖然大家看到此間過程有點曲折,但是所有的困難都是涅槃的火種,克服過的困難都是今後可以對客戶做的承諾。在這裡可以很明確的告訴各位:AI+雲原生=真香。

寫這篇文章的目的,不是在闡述困難,而是為了總結分享。與同領域的人分享並促進遙感領域的快速發展,共同推動AI+雲原生的落地。

 

點擊關注,第一時間了解華為雲新鮮技術~