linux下定位異常消耗的線程實戰分析

前言:

之前分享過一篇Linux開發coredump文件分析實戰分享 ,今天再來分享一篇實戰文章。

在我們嵌入式linux開發過程中,開發過程中我們經常會使用多進程、多線程開發。那麼多線程使用過程中,我們大概率會遇到某線程長時間佔用cpu,導致設備執行異常。

通常只有四五個線程,我們可以通過一個個線程調試捕捉到異常線程,如果你開發的設備上面運行了大概三四十個線程,我們一下子不好看到對應哪個線程出問題,也不好使用列舉法進行搜索,這個時候我們需要配合一些工具進行監控以及檢查我們執行的進程下面的線程。下面我就給大家介紹一下我自己工作中實際遇到的例子。

作者:良知猶存

轉載授權以及圍觀:歡迎關注微信公眾號:羽林君

或者添加作者個人微信:become_me


情節介紹:

在工作中,我遇到這樣一個問題,我的設備跑機的時候發現,機器運行某些狀態時候有些怪異,對於某些機制的處理響應不夠及時,最後top檢查,發現是我運行的某個進程中的某幾個線程運行cpu佔有率很高,導致其他的一些線程無法及時運行。

找到問題了,接下來我們就開始找對應的線程然後進行修改,前文提到,進程裏面有一兩個線程還好說,我們可以通過一些比較基礎的方法,一個個線程進行log或者其他手段的信息輸出,但是如果我們遇到單個進程裏面有很多線程的時候,我們如何檢查呢?

初步列一個使用的工具大綱:ps 組合命令、top組合命令、pstack、strace、ltrace、gdb attach <pid>實時調試 、 kill <sig> <pid>、coredump文件查看線程堆棧

以上就是我使用到的一些命令和操作,接下來一一給大家進行分析和介紹:

首先給大家介紹每個工具和命令詳細介紹,再用自己的一個小例子把這些工具進行組合使用說明。

工具和組合命令詳細介紹

首先給詳細的介紹一下這些工具說明書:

ps 的選項參數介紹:

ps命令大家在linux使用應該是很熟悉的,ps是Process Status的縮寫,用來列出系統中當前運行的進程。使用該命令可以確定有哪些進程正在運行和運行的狀態、進程是否結束、進程有沒有僵死、哪些進程佔用了過多的資源等等。ps命令所列出的進行是當前進程的快照,也就是並不是動態的,而是執行該命令時那一時刻進行的狀態。

ps 的參數非常多, 在此僅列出幾個常用的參數並大略介紹含義
-A 列出所有的進程
-w 顯示加寬可以顯示較多的資訊
-au 顯示較詳細的資訊
-aux 顯示所有包含其他使用者的行程

我一般都是使用 ps -aux進行查看後台運行的進程pid

下面再進行補充一下今天要使用到的ps組合命令

查看進程對應的線程

ps -T -p 472 (472 此處為真實進程的pid大家自行替換)

第一行是對應的進程ID,第二行是對應的線程ID

查看進程對應線程的執行時間

ps -eLo pid,lwp,pcpu |grep 1780(1780 此處為真實進程的pid大家自行替換)

第一行是進程pid,第二行是進程裏麵線程對應的pid,第三行是該線程執行ms時間,通過線程執行時間長度,我們配合該線程的堆棧信息,線程頻繁執行IO操作或者線程頻繁執行的庫函數來判斷該線程是否錯誤佔用cpu資源。

top組合命令介紹:

top命令也是大家熟悉的一個命令,可以顯示當前系統正在執行的進程的相關信息,包括進程ID、內存佔用率、CPU佔用率等。同時也可以對指定進程發送一個信號。

-b 批處理
-c 顯示完整的信息
-I 忽略失效過程
-s 保密模式
-S 累積模式
-i<時間> 設置間隔時間
-u<用戶名> 指定用戶名
-p<進程號> 指定進程
-n<次數> 循環顯示的次數

首先我們一般會直接使用top命令,查看進程信息,這裡做一下多描述,因為後續使用strace工具還是使用ltrace工具,是從top命令的cpu信息區進行確定我們使用具體工具。

test@test:~# top

top - 02:32:07 up 17 min,  2 users,  load average: 3.17, 3.26, 2.17
Tasks: 165 total,   3 running, 162 sleeping,   0 stopped,   0 zombie
%Cpu(s): 31.3 us,  7.0 sy,  0.0 ni, 60.9 id,  0.0 wa,  0.0 hi,  0.9 si,  0.0 st
MiB Mem :   3845.3 total,   3424.3 free,    240.9 used,    180.1 buff/cache
MiB Swap:      0.0 total,      0.0 free,      0.0 used.   3566.7 avail Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND
  461 root     -96 -20 2432536  58472  18888 S 176.5   1.5  18:15.07 ex
  375 root      -2   0       0      0      0 S   5.9   0.0   0:04.23 RTW_RECV_THREAD
  430 root      20   0  682204  22536   6880 S   5.9   0.6   0:55.69 python
16913 root      20   0       0      0      0 S   5.9   0.0   0:02.46 kworker/u12:0
22219 root      20   0    3300   2100   1628 R   5.9   0.1   0:00.02 top
    1 root      20   0    1892    620    556 S   0.0   0.0   0:00.41 init
    2 root      20   0       0      0      0 S   0.0   0.0   0:00.01 kthreadd
    3 root      20   0       0      0      0 S   0.0   0.0   0:00.14 ksoftirqd/0
    5 root       0 -20       0      0      0 S   0.0   0.0   0:00.00 kworker/0:0H
    7 root      20   0       0      0      0 R   0.0   0.0   0:02.24 rcu_sched
    8 root      20   0       0      0      0 S   0.0   0.0   0:00.00 rcu_bh
    9 root      rt   0       0      0      0 S   0.0   0.0   0:00.16 migration/0
   10 root      rt   0       0      0      0 S   0.0   0.0   0:00.00 watchdog/0

top顯示的統計信息:

top顯示信息前五行是當前系統情況整體的統計信息區。這部分統計信息的解釋參考文章《top命令》:

第一行,任務隊列信息,同 uptime 命令的執行結果

test@test:~# uptime
 13:46:08 up  1:04,  1 user,  load average: 0.00, 0.00, 0.00

具體參數說明情況如下:

02:32:07 — 當前系統時間
up 17 min,  — 系統已經運行了17分鐘
2 users — 當前有2個用戶終端登錄系統
load average: 3.17, 3.26, 2.17— load average後面的三個數分別是1分鐘、5分鐘、15分鐘的負載情況。

load average數據是每隔5秒鐘檢查一次活躍的進程數,然後按特定算法計算出的數值。如果這個數除以邏輯CPU的數量,結果高於5的時候就表明系統在超負荷運轉了。

第二行,Tasks — 任務(進程),具體信息說明如下:

系統現在共有165個進程,其中處於運行中的有3個,162個在休眠(sleep),stoped狀態的有0個,zombie狀態(殭屍)的有0個。

第三行,cpu狀態信息,具體屬性說明如下:


31.3 us — 用戶空間佔用CPU的百分比。
7.0  sy — 內核空間佔用CPU的百分比。
0.0  ni — 改變過優先級的進程佔用CPU的百分比
60.9  id — 空閑CPU百分比
0.0 wa — IO等待佔用CPU的百分比
0.0 hi — 硬中斷(Hardware IRQ)佔用CPU的百分比
0.9 si — 軟中斷(Software Interrupts)佔用CPU的百分比
0.0 st 虛擬機管理程序為另一個處理器(從虛擬機中竊取)服務時,虛擬cpu進行非自願等待所花費的時間

第四行,內存狀態,具體信息如下:

3845.3 total — 物理內存總量(3.8GB)
3424.3 free — 空閑內存總量(3.2GB)
240.9 used — 使用中的內存總量(240.9MB)
180.1 buff/cache — 緩存的內存量 (180M)

第五行,swap交換分區信息,具體信息說明如下:

0.0 total — 交換區總量(0.0 GB)
0.0 free — 空閑交換區總量(0MB)
0.0 used — 使用的交換區總量(0MB)
3566.7 avail Mem — 可使用緩衝的交換區總量(3.5GB)

第六行,空行。

第七行以下:各進程(任務)的狀態監控,項目列信息說明如下:

PID — 進程id
USER — 進程所有者
PR — 進程優先級
NI — nice值。負值表示高優先級,正值表示低優先級
VIRT — 進程使用的虛擬內存總量,單位kb。VIRT=SWAP+RES
RES — 進程使用的、未被換出的物理內存大小,單位kb。RES=CODE+DATA
SHR — 共享內存大小,單位kb
S — 進程狀態。D=不可中斷的睡眠狀態 R=運行 S=睡眠 T=跟蹤/停止 Z=殭屍進程
%CPU — 上次更新到現在的CPU時間佔用百分比
%MEM — 進程使用的物理內存百分比
TIME+ — 進程使用的CPU時間總計,單位1/100秒
COMMAND — 進程名稱(命令名/命令行)

這是top的常規使用得到的信息,我們一般進行組合使用命令,我一般使用,

top -Hp 461(461 此處為真實進程的pid大家自行替換)

通過-Hp命令,我可以查看指定進程的線程

其中在統計信息的第三行中,可以看到cpu佔用率主要是用戶態。

那麼我們應該最好使用ltrace進行用戶態庫函數的調用查詢。當然strace也可以,但是由於內核使用佔據cpu使用率不高,你追蹤到的IO操作應該遠少於用戶態庫函數調用。

pstack 的選項參數介紹:

pstack 是 Linux 系統下的一個命令行工具,此命令可以顯示指定進程每個線程的堆棧快照,便於排查程序異常和性能評估,此命令允許使用的唯一選項是要檢查的進程的 PID。要是要使用這個包大家需要在所使用的linux lib和斌目錄裏面增加該工具。

示例

sudo pstack 16634(該pid為我自己測試電腦對應的進程 大家使用時候可以自行替換成自己對應的pid)

可以在一段時間內,多執行幾次pstack,若發現代碼棧總是停在同一個位置,
那個位置就需要重點關注,很可能就是出問題的地方;

ltrace 的選項參數介紹:

ltrace能夠跟蹤進程的庫函數調用,它會顯現出調用了哪個庫函數,而strace則是跟蹤進程的每個系統調用。ltrace跟蹤進程調用庫函數參數選項有什麼?

ltrace 的選項參數介紹:


-c 統計庫函數每次調用的時間,最後程序退出時打印摘要。
-C 解碼低級別名稱(內核級)為用戶級名稱。
-d 打印調試信息。
-e expr 輸出過濾器,通過表達式,可以過濾掉你不想要的輸出。
-e printf 表示只查看printf函數調。
-e!printf 表示查看除printf函數以外的所有函數調用。
-f 跟蹤子進程。
-o flename 將ltrace的輸出寫入文件filename。
-p pid 指定要跟蹤的進程pid。
-r 輸出每一個調用的相對時間。
-S 顯示系統調用。
-t 在輸出中的每一行前加上時間信息。
-tt 在輸出中的每一行前加上時間信息,精確到微秒。
-ttt 在輸出中的每一行前加上時間信息,精確到微秒,而且時間表示為UNIX時間戳。
-T 顯示每次調用所花費的時間。

strace 的選項參數介紹:

strace常用來跟蹤進程執行時的系統調用和所接收的信號。 在Linux世界,進程不能直接訪問硬件設備,當進程需要訪問硬件設備(比如讀取磁盤文件,接收網絡數據等等)時,必須由用戶態模式切換至內核態模式,通過系統調用訪問硬件設備。strace可以跟蹤到一個進程產生的系統調用,包括參數,返回值,執行消耗的時間。

-f 跟蹤目標進程,以及目標進程創建的所有子進程
-t 在輸出中的每一行前加上時間信息(-tt 表示微秒級)
-T 顯示每個系統調用所耗的時間

通過觀察系統調用我們可以確認當前程序的行為,分析其消耗的時間、返回值是否正常。可以過濾指定的線程號,確認當前線程的行為是否符合預期,如果執行命令後完全沒有輸出,那麼可以懷疑是否由於網絡、IO等原因導致阻塞,或程序產生死鎖。

pstree 的選項參數介紹:

命令將所有進程以樹狀圖顯示,樹狀圖將會以 pid (如果有指定) 或是以 init 這個基本進程為根 (root),如果有指定使用者 id,則樹狀圖會只顯示該使用者所擁有的進程。要是要使用這個包大家需要在所使用的linux lib和斌目錄裏面增加該工具。

-A: 各進程樹之間的連接以ASCII碼字符來連接
-U:各進程樹之間的連接以utf8字符來連接,某些終端可能會有錯誤
-p:同時列出每個進程的PID
-u: 同時列出每個進程的所屬賬號名稱:

pstree -up 輸出進程和子進程樹形數據

kill <sig> <pid>和coredump文件查看線程堆棧:

因為有些時候我們使用的linux環境下面不一定有很全的工具,例如上面所提到的pstack查看對應的線程,會有其他的一些命令和工具替代,這裡我就給大家介紹兩種我使用的方法,用來查看我實際的堆棧和對應的pid線程信息。

kill -11 461

對應的進程就會 出現Segmentation fault (core dumped)

而我們設置了coredump文件的產生,產生條件裏面有段錯誤信號,所以我發送了11信號給該進程。

如果大家對於自己需要的信號不知道對應的數字,可以用 kill -l 命令查詢。

至於通過coredump查看對應的堆棧信息,我之前的這篇文章寫的比較全面了,這裡就不再過多贅述了,大家可以點擊這篇文章進行查看
Linux開發coredump文件分析實戰分享

除了使用kill命令殺死指定進程,我們也可以通過top組合命令來殺死進程:
首先使用top進入top顯示的信息,其次假如我們選擇好了 461這個進程準備殺死:

先輸入 k 進入top的kill選項

PID to signal/kill [default pid = 1451] 
  PID USER      PR  NI    VIRT    RES    SHR S  %CPU  %MEM     TIME+ COMMAND                                                                                                                               
  461 root     -96 -20 2081464  28672  17756 S  21.7   1.4   0:07.05 exc  

再按照提示輸入 指定pid 461

PID to signal/kill [default pid = 1451] 461

使用enter 之後,按照提示輸入信號,我選擇了 11( 段錯誤信號)

Send pid  461 signal [15/sigterm] 11

這個操作等同於 kill -11 461

gdb attach <pid>實時調試:

這個是gdb中實時調試的工具,指定進程實時調試,但是實際中遇到大型代碼,調試起來太卡了,所以基本不用它實時調試,我是用來它來進行實時看一些堆棧信息以及查看線程id和實際代碼的匹配。
操作也是比較簡單,從上面我們可以獲知你運行的進程的pid,你用gdb attach指定pid就可以進行調試了。進入之後的操作命令就是gdb調試的命令。

大家可以看到gdb attach一進來就在最前面顯示對應的lwp線程pid,這個pid和我們用top命令和ps命令以及strace、ltrace打印的pid信息是一致的。通過相同的pid我們就可以知道該進程或者線程下執行的具體操作了。

輸入gdb命令 thread apply all bt ,我們就可以看到對應線程的堆棧,通過堆棧的信息,我們就可以反向查找代碼了。
下面是一個截取,展示的是lwp 790(線程pid==790)的一個堆棧信息,通過#3 我們可以知道該線程代碼在even_manager.cpp的40行

實戰中的組合使用

通過上面的命令介紹,我們也知道了在linux下我們可以用到哪些工具可以分析我們的異常進程和線程,下面我就通過一個我自己實際遇到的情況,給大家實際介紹一下這些工具的組合使用情況。

首先,我先使用top命令查看我cpu使用情況

這一看,ex進程竟然佔用了176%的cpu(我的設備是多核設備),也就是差不多兩個核的cpu被佔滿了。此時可以看到主要佔用的cpu資源是用戶態的資源,所以推薦使用ltrace查看,但是我這邊目前設備裏面沒有這個包,所以直接使用了strace查看。

接下來我就想知道到底該進程下的哪個線程,以及線程對應的是哪部分代碼,頻繁執行了什麼操作。

所以我先使用了 top -Hp 461 查看我對應該進程下所有的線程執行所佔cpu的百分比。

也可以使用 ps -T -p 461 查看進程對應的線程pid信息

ps -eLo pid,lwp,pcpu |grep 461 查看線程執行消耗的時間

strace -p 461 -f進行查看該進程下執行了內核交互函數最多執行的部分

最左邊的部分就是對應的執行IO函數下的線程PID,我們同時可以直接指定線程pid進行查詢線程的操作,例如我們看到線程845在讀fd為13的一個設備,我們可以單獨strace -p 845.

本來應該是strace、ltrace、pstack配合使用,但是我使用的設備上沒有ltrace和pstack,所以我使用gdb attach直接調試進程,查看對應的線程堆棧信息,用來確認top組合命令的出的線程pid信息和實際代碼進行映射。

gdb attach 461 實時調試查看線程堆棧信息用來匹配實際的代碼部分

進入之後直接使用 thread apply all bt 查看對應的線程堆棧信息,通過堆棧信息,我們就可以知道對應的代碼部分

每一個堆棧信息的最上面有顯示 lwp <pid> 大家就可以對照查看代碼了。

這時候我們就知道了該進程下有哪些線程,那我們還需要知道該線程對應的是代碼哪一部分代碼,以及線程具體執行了哪些操作。

strace和gdb attach命令等從開發初始來說是好的技術,但是實際使用中,由於代碼複雜性,以及c受限與cpu,在我strace和gdb attach使用中,這些工具因為要一直監控進程,會很佔用你cpu資源,甚至gdb attach開始調試,機器直接運行非常緩慢,遠程ssh登錄都卡住了。所以只能用一些消耗資源少的操作進行查看信息,就像內存分析中的mtrace和valgrind,一啟動使用,機器直接卡停。所以很多時候工具雖好,但是實際只能輔助一些而已,更重要我們要規範寫代碼。

結語

這就是我分享我在工作中使用的一些linux線程監控的操作,如果大家有更好的想法和需求,也歡迎大家加我好友交流分享哈。


作者:良知猶存,白天努力工作,晚上原創公號號主。公眾號內容除了技術還有些人生感悟,一個認真輸出內容的職場老司機,也是一個技術之外豐富生活的人,攝影、音樂 and 籃球。關注我,與我一起同行。

                              ‧‧‧‧‧‧‧‧‧‧‧‧‧‧‧‧  END  ‧‧‧‧‧‧‧‧‧‧‧‧‧‧‧‧

推薦閱讀

【1】在球場上我向人民幣玩家低了頭

【2】Linux開發coredump文件分析實戰分享

【3】CPU中的程序是怎麼運行起來的 必讀

【4】cartographer環境建立以及建圖測試

【5】設計模式之簡單工廠模式、工廠模式、抽象工廠模式的對比

本公眾號全部原創乾貨已整理成一個目錄,回復[ 資源 ]即可獲得。