記一次Linux server偶發CPU飆升問題的跟進與解決

背景

進入6月後,隨着一個主要功能版本api的上線,服務端的QPS翻了一倍,平時服務器的CPU使用穩定在30%上下,高峰期則在60%上下,但是偶爾會有單台機器出現持續數分鐘突然飆到90%以上,導致大量api響應緩慢超過客戶端等待時間,觸發其主動斷開連接產生大量nginx499。

問題分析與解決

問題期間器資源情況

仔細查看問題期間的zabbix監控數據,發現90%的CPU佔用中有10%上下是sys time, 5%上下是softirq time,兩者相加可佔到接近20%, interrupt和context switch數由之前的10k/s飆升至20k+/s。

定位kafka log發送代碼

首先猜測就是某個新加功能實現有bug,可能造成長時間未執行完成,多個類似請求長期佔用CPU而後又被切換為其他線程,反覆在這些耗時請求中來回切換卻沒法完成任意一個請求,並造成後續請求在隊列中排隊等待,導致大量請求超時響應。
直接入手分析定位新增的某個複雜功能接口,確認不存在死循環的可能,懷疑是接口太耗性能長期佔用CPU導致後續請求來不及處理最終連鎖反應導致雪崩。
仔細分析其實現,發現總共會觸發30+次kafka log發送,之前一直認為使用異步批量發送kafka log的情況下,多發幾次log應該不會存在什麼問題,不過這裡一個請求觸發30+次 kafka log發送確實有點太多了。
本着懷疑的精神決定實際驗證一番kafka log發送耗時,結果發現每次kafka調用耗時居然在0.2-2ms之間波動,這相當於該複雜接口功能請求光是發送kafka消息就需要6-60ms時間,與之前認為應該很快的假設不符!
進一步分析原因,發現原來沿用的kafka producer初始化配置有大坑,其設置了batch_size=20之前一直理解為是每20條log觸發一次實際發送,結果起始batch_size的單位是位元組,其表示的是每滿20位元組觸發一次實際發送==!所以實際效果是每次kafka log send都會觸發實際發送。通過修改batch_size為64k並設置linger_ms為500ms,驗證kafka log一邊為批量發送模式後,再次測試kafka消息單次調用耗時變為了<0.1ms。
修改線上api服務kafka參數,並將複雜接口kafka send操作從30+次優化為10+次,reload服務後,意外發現內存佔用居然還降了50%(2G=>1G),但是對於日常interrupt、context switch次數未觀察到明顯下降。
修改後連續幾天未再出現CPU飆升偶發問題,但是堅持不到一周再次有機器出現類似問題,優化前平均1~2天一次,多的時候一天就有兩三次,優化後出現頻率降低為一周兩三次,從這個角度來看優化具有一定效果。

嘗試擴容解決

由於剛上了一個大版本功能,客戶端確實新增了很多api調用,隨着新版本覆蓋用戶數逐步升高,單機負載逐步升高,於是考慮再擴個容看能否解決問題,在某天下午快速擴容一台機器後,晚上又出現了該問題,該簡單方案宣告失敗。

定位Linux內存水位

在前兩個方案嘗試解決問題失敗後,開始細究一下每5分鐘打印一次的機器top快照,仔細硬瞅之下還真發現點端倪:查看了單台機器過去近10次CPU飆漲時段的指標,發現free內存一般在CPU飆漲前剩餘不到200M,而CPU恢復正常後free內存一般都剩餘>1G,這個看上去有點不同尋常。進一步按圖索驥觀察到kswapd_low_wmark_hit_quickly取值每天增長上千次,直覺上感覺是偏高的。
難道問題是free內存不足、回收引起的?然而zabbix監控上顯示的可用內存一直都是>5G,理論上不應該存在不足才對,進一步探究了解到了free內存回收與內存水位的概念。

內存水位作用

Linux的設計思路是盡量多的使用空閑內存,除了保留一定量的真正空閑立馬可用的內存作為free內存保證系統正常運轉外,其他空閑內存會盡量用於系統緩存(buffer+cache),當free內存不足時則從buffer、cache中回收為free內存即可,而一般我們說linux的可用內存都是指available內存,其實際包括free+可回收的buffer+cache內存,這也是zabbix監控中可用內存使用的指標。
那實際應該保留多少free內存以及何時觸發回收free內存呢?這裡就需要引入linux的內存水位(watermark)概念了,具體可參考這篇文章–Linux內核調整watermark_scale_factor以緩解direct reclaim。簡單來說就是linux設置了min/low/high三個內存水位,對應free內存在不同水位線的行為如下:

  • free > high,內存充足,什麼都不用做
  • free內存由>high下降至<low,喚醒kswapd開始內存回收–其他進程依然可以正常申請內存
  • 若free內存一直下降至<min, 分配新內存的進程會直接觸發自己同步內存回收操作–direct claim
  • kswapd終於回收free內存至>high,休眠100ms
    • 休眠100ms期間若free又下降至<low,則再次喚醒kswapd,並自增kswapd_low_wmark_hit_quickly值
    • 休眠100ms後若free變為<high,kswapd需繼續回收內存至>high,而後繼續休眠100ms,並自增kswapd_low_wmark_hit_quickly值
    • 休眠100ms後若free依然>high,kswapd將進入長期sleep等待下次被喚醒

內存水位計算與調整

而watermark的min/low/high三者的取值具體是由兩個內核參數min_free_kbytes和watermark_scale_factor決定的,簡單來說–參考
vm內核參數之內存水位min_free_kbytes和保留內存lowmem_reserve_ratio
:

watermark[WMARK_MIN] = (min_free_kbytes/4) * zone.pages/zone.allpages
watermark[WMARK_LOW] = 5/4watermark[WMARK_MIN]
watermark[WMARK_HIGH] = 3/2*watermark[WMARK_MIN]

min水位直接由min_free_kbytes決定(後面的zone.pages/zone.allpages表示不同內存區按佔總物理內存的比例均分對應水位值),而後min/low/high之間的差值則=1/4low,所以在一台8G(7969M)的線上機器上min/low/high取值默認為:

Node 0, zone      DMA
  per-node stats
      nr_inactive_anon 21704
      nr_active_anon 171130
      nr_inactive_file 1490263
      nr_active_file 153139
--
Node 0, zone    DMA32
  pages free     58451
        min      6322
        low      7902
        high     9482
   node_scanned  0
--
Node 0, zone   Normal
  pages free     13169
        min      10540
        low      13175
        high     15810
   node_scanned  0

主要的Normal區域的min/low/high差值也就105400.254KB=10M左右,如果線上有突增流量,很可能一下子就跑到low乃至min水位之下了。

內存水位調整效果

通過watermark_scale_factor參數將默認值10/10000調整為200/10000,內存水位取值變為:

Node 0, zone      DMA
  per-node stats
      nr_inactive_anon 21910
      nr_active_anon 278859
      nr_inactive_file 1366921
      nr_active_file 150022
--
Node 0, zone    DMA32
  pages free     56340
        min      6342
        low      21660
        high     36978
   node_scanned  0
--
Node 0, zone   Normal
  pages free     35915
        min      10520
        low      35926
        high     61332
   node_scanned  0

Normal zone內存水位min/low/high差值變為:low-min=99MB,調整完後對單台機器逐步放量至近期峰值的150%流量測試,未再出現該問題,至今2周過去了,線上機器未再出現該問題。
另一個驗證水位調整效果的數據是查看並自增kswapd_low_wmark_hit_quickly值變化值,在調整水位值之前,每天kswapd_low_wmark_hit_quickly新增在1000左右,調整後變為100次,降低了一個數量級。
轉載請註明出處,原文地址: //www.cnblogs.com/AcAc-t/p/linux_watermark_and_kafka_batch_send.html

參考

//zhuanlan.zhihu.com/p/440688960
//help.aliyun.com/document_detail/316788.html
//unix.stackexchange.com/questions/211646/what-is-kswapd-low-wmark-hit-quickly-from-proc-vmstat
//blog.csdn.net/u010039418/article/details/105281933
//kafka-python.readthedocs.io/en/master/apidoc/KafkaProducer.html
//doc.opensuse.org/documentation/leap/archive/42.3/tuning/html/book.sle.tuning/cha.tuning.memory.html