滴普技術薈:基於機器視覺的典型多目標追蹤演算法應用實踐

1.jpg

影片目標追蹤演算法是機器視覺中一項很實用重要的演算法,影片目標追蹤演算法應用場景很廣,比如智慧監控、機器人視覺系統、虛擬現實(人體跟蹤)、醫學診斷(細胞狀態跟蹤)等。本文由滴普科技2048團隊AI產品部演算法工程師朱曉麗介紹基於機器視覺的典型多目標追蹤演算法應用實踐。

 

一、概述

 

目標追蹤演算法分為單目標追蹤SOT(Single-Object Track)和多目標追蹤MOT(Multi-Object Track)[1][2]。在單目標跟蹤中,使用給定的初始目標位置,在後續影片幀中對給定的物體進行位置預測。而多目標跟蹤演算法,大部分都是不考慮初始目標位置的,目標可自行消失與產生。對目前小組項目而言只需用到MOT,所以本文提到的追蹤默認為MOT。

 

MOT的分類

1) TBD(Tracking-by-Detection)與DFT(Detection-Free Tracking)也即基於檢測的多目標跟蹤與基於目標外形的先驗知識無需檢測器的多目標跟蹤。TBD是目前學界業界研究的主流。

2) 傳統的跟蹤方式有在線跟蹤(Online)與離線跟蹤(Offline)兩種。在線跟蹤演算法中,只能使用當前幀及之前幀的資訊來進行當前幀的跟蹤。而在離線跟蹤演算法中則沒有了這個限制,對每一幀的預測,都可以使用整個影片的資訊,這樣更容易獲得一個全局最優解。兩種方式各有優劣,一般視應用場合而定,離線跟蹤演算法的效果一般會優於在線跟蹤演算法。而介於這兩者之間,還有一種稱之為接近在線的多目標跟蹤演算法(NOMT),即可以部分利用未來幀的資訊。

在跟蹤結果可修改性方面,在線跟蹤是不允許修改以往的跟蹤結果的。因為一旦修改,演算法自然就不再符合在線跟蹤原則,從而不能利用未來幀,進而變成了Near-Online或者Offline的跟蹤方式。

需要特別注意,在線跟蹤不等於Real-Time實時跟蹤,實時跟蹤一定屬於在線跟蹤的,但絕大部分在線跟蹤演算法速度還太慢,不足以支援實時處理的要求. 尤其是應用了深度學習的演算法,往往需要大量運算,對實時處理有較大壓力。

 

MOT常用評價標準

 

2.jpg

MOT的難點

 

MOT最常用的類別是Tracking-By-Detection與Online,對應的演算法處理步驟:

3.jpg

其中,有兩個難點:

1)遮擋,這也是ID交換和軌跡分段的主要原因;

2)兩個軌跡非常靠近,ID容易匹配不準,出現錯位或丟失。 

 

目前所有目標追逐演算法都圍繞著這兩大難點進行優化,優化的方向圍繞著這四個步驟,如:運用Private Dataset,挑選合適檢測模型,提升檢測精度;特徵提取不局限於一般的CNN,還有Siamese Network等網路;特徵間的相似度,不再是簡單的Distance Metric,也開始運用CNN、RNN、LSTM等;數據關聯匹配除了傳統經典的Hungarian Algorithm,也可以當作圖優化的問題處理。 

 

常用的效果較好的有以下幾種(詳細介紹見「二」節):

l Sort(Simple nline and real time tracking)

l Deep Sort(Deep simple online and realtime tracking)

l FairMot(A simple baseline for multi-object tracking)

l Graphnn Multi-object Trachking。(後面簡寫為Graphnn-mot)

 

二、典型的追蹤演算法介紹

 

1. Sort和Deep Sort

Sort和Deep Sort[9]是經典的追蹤演算法之一,演算法原理流程圖如下:

 

4.jpg

如上圖,演算法模組,根據目前MOT常用的演算法步驟:a.檢測, b.特徵提取、軌跡預測, c.計算相似度,d.數據匹配,Deep Sort演算法就這四個步驟,按序簡介涉及到的核心知識點五個:Setection、ReID model、Kalman Filter、iou與餘弦/馬氏距離、Hungarian Algorithm。

Detection:常用的檢測網路,如Faster Rcnn、Yolov4、SSD等,可根據實際項目對精度或時間的要求挑選。本文復現時,上面的幾種網路都有嘗試,源程式碼使用了商湯的mmdetection框架下的cascade-rcnn,但項目考慮時間和精度,最終使用了Yolov4[3]作為檢測來源。

ReID model:源程式碼使用了多重粒度網路(Mutiple Granularity Network),是以Resnet50作為backbone,以Softmax_2048分支作為id特徵。考慮到2048維特徵過大,數據關聯時,時間會比較長,所以一般項目上會採用MobileNetv2[4]作為主幹網路,id特徵維度可以下降到751,減少運算量。

Kalman Filter:卡爾曼濾波,預測confirmed id在下一幀的中心點位置以及box的size。iou與餘弦距離:用於計算數據匹配的代價矩陣。1-iou的值作為box間的距離值,餘弦距離函數值作為id特徵值間的距離。

Hungarian Algorithm:匈牙利匹配演算法用於目標預測與目標檢測的關聯匹配,確定目標的軌跡。

相比之下,Sort演算法比起Deep sort演算法少了ReID model與餘弦距離判斷,所以ID切換的過於頻繁,精度要低很多。速度幾乎只取決於Detection模型的預測速度。如果對速度要求很高的,可以考慮用sort演算法。

 

2.  FairMot

FairMot追蹤演算法[10],演算法處理流程圖如下:

 

5.jpg

FairMot演算法重點突破

a. 比起之前兩步(先檢測後Re-ID)的追蹤演算法,FairMot完成檢測與Re-ID共享網路參數,減少演算法推理時間,速度大幅度提升。

b. 比起之前單步的追蹤演算法JDE[12],存在的一些不足,如:一個物體可能被多個anchor負責並進行檢測,或實際物體的中心可能與負責對該物體進行檢測的anchor中心有偏差,都會導致id頻繁變換。Fairmot針對這些不足,不用anchor-based的檢測方式,以anchor-free目標檢測範式代替。

涉及到的核心知識點:一個有效簡潔的網路結構DLA34、Kalman Filter、iou與餘弦距離、Hungarian Algorithm。下面詳細介紹DLA34網路,至於Kalman,Distance Metrixes, Hungarian Algorithm同Deep Sort的內容一致,這裡不多做解釋。

FairMot旨在將檢測與Re-ID揉在一個網路結構里,且需要是anchor-free的目標檢測方式,所以DLA34網路結構必需要預估目標中心點的位置和對應目標的features。FairMot的網路結構圖如下:

 

6.jpg

DLA34的backbone是Resnet34[5],Resnet網路結構是里程碑似的出現,比起一般的plain network, Resnet直接使用stride=2的down sample並且用global average pool層替換全連接層,保持了網路的複雜度,並有效解決了深度網路的退化問題。

DLA34[6]是對Resnet34加強,除了Down Sample,還有Up Sample,有點類似FPN[7]的網路結構,跨層添加features,使得多層融合,跨層stride=4。

heatmap head:用於預估目標中心位置,使用了與focal loss類似的損失函數,詳情推導見源文。

box offset head:目的是使得預估的目標位置更精準,輔助目標中心位置的預估。box size head:對每個預估了的目標中心,預估其對應的box的長和寬。offset與size兩個頭加入在一個l1 loss函數裡面。

Re-ID branch:一個分類任務,旨在對每個預估出的目標中心產生64維的features,通過features用於後續計算前後幀的目標的相似度。使用了通用的softmax損失函數。

 

3.  Graphnn-mot

Graphnn-mot演算法[11],簡單流程圖如下:

 

7.jpg

Graphnn-mot是基於圖神經網路[8]的離線MOT,利用圖結構同時執行特徵提取和數據關聯匹配,提出了時間感知資訊傳遞網路對節點和連接邊資訊的更新。

涉及到的核心知識點:圖構造、特徵編碼、資訊傳遞、軌跡預測。

圖構造:對需檢測的所有圖片(圖片之間要有時間關聯,最好是影片),進行目標檢測。構建圖,其中節點對應檢測目標,邊對應檢測目標之間的連接。對圖中的每條邊引入了一個二元變數,如果某些邊連接了屬於同一條跟蹤軌跡且在同一條跟蹤軌跡上是時間連續的節點,那麼其標籤為1,否則為0。一個節點不會屬於超過一個跟蹤軌跡。論文提出直接學習預測圖中的哪條邊被激活,即邊上的二元變數的最終值,為此將這個任務視為邊上的二分類任務,標籤就是二元變數值y。

特徵編碼:在邊界框影像上應用一個卷積神經網路,初始化節點的外觀特徵嵌入。對於每一條邊也就是不同幀的每一對檢測,我們計算一個具有編碼了他們的邊界框之間的相對大小,位置以及時間差的特徵的向量。然後將其輸入到一個多層感知器中得到邊的幾何嵌入。

資訊傳遞:我們在整個圖上執行了一系列的資訊傳遞步驟。對於每一輪的資訊傳遞,節點會與他們的連接邊分享外觀資訊,邊會與他們的伴隨節點分享幾何資訊。最後,能夠獲得節點和邊的更新嵌入資訊,其包含了依賴於整個圖結構的高階資訊。

 

軌跡預測:根據最後的所有邊嵌入預測的連續的二元結果,獲得最終的跟蹤軌跡。

 

三、實際演算法測試分析

 

本文對Deep Sort、FairMot、Graphnn-mot演算法進行橫向測試,並使用追蹤經典指標評估(見表1),基於MOTChallenge數據集實際測試進行評估,評估結果如下表(測試環境詳見附錄1):

 

8.jpg

如表所示,無論時間還是精度,Farimot更有優勢。影響精度的原因主要是兩個:

1. 檢測目標聚集,被遮擋,ID switches頻率太高。三種追蹤演算法都有出現這類情況,嚴重程度graphnn mot >deep sort>fairmot,可見下面擁擠場景例圖:

 

如上圖紅上衣人為例,graphnn mot對應的id號為:無->15->20,id號連續變換;deep sort對應的id號:32->32->48,id號部分變換,只在最聚集的地方變換了id號;fairmot對應的id號:30->30->30,id號一直很穩定。

 

2. 目標檢測精度不高,漏檢與誤檢。主要是graphnn mot演算法有明顯漏檢,可見下面例圖:

 

12.jpg

對於目前最常使用的追蹤演算法,都是tracking-by detection,所以目標檢測的精度直接影響追蹤的精度。

 

四、總結

 

對於跟蹤模組,目前來說更好的解決方案,比如使用MOTDT[13],此演算法在DeepSort的基礎上加入了軌跡評分的機制,目前像FairMOT、JDE使用的跟蹤模組都是MOTDT,從精度和速度上此演算法表現都是較優的。

 

圖神經網路在追蹤上的運用,還處於剛起步階段。屬於離線跟蹤演算法之一,而且目標檢測與ReID檢測結果沒有進行融合,所以速度方面,沒有太大優勢。

 

對於實際項目來說,對綜合目標跟蹤效果影響最大的因素是目標檢測的精確度,相對於公共數據集,當使用實際項目的數據集時,使用的目標檢測精度提升後,實際跟蹤效果能達到比較理想的水平。       

 

目前以上追蹤演算法用於滴普的某養殖企業養殖場豬計數項目和某地產企業施工地段安全帽的檢測預警項目中,已取得較好效果,並能為企業持續創造新價值。

 

詳細項目場景請登錄滴普科技官網了解(www.deepexi.com)。

 

參考文獻

[1] Multiple Object Tracking: A Literature Review. //arxiv.org/abs/1409.7618

[2] Deep Learning in Video Multi-Object Tracking: a Survey. //arxiv.org/pdf/1907.12740.pdf

[3] YOLOv4: Optimal Speed and Accuracy of Object Detection. //arxiv.org/pdf/2004.10934v1.pdf

[4] MobileNetV2: Inverted Residuals and Linear Bottlenecks. //arxiv.org/abs/1704.04861

[5] Deep Residual Learning for Image Recognition. //arxiv.org/abs/1512.03385

[6] Deep Layer Aggregate. //arxiv.org/pdf/1707.06484.pdf

[7] Feature Pyramid Networks for Object Detection. //arxiv.org/pdf/1612.03144.pdf

[8] A Comprehensive Survey on Graph Neural Networks. //arxiv.org/abs/1901.00596

[9] Simple Online and Realtime Tracking with a Deep Association Metric. //arxiv.org/pdf/1703.07402.pdf

[10] FairMOT: On the Fairness of Detection and Re-Identification in Multiple Object Tracking.//arxiv.org/pdf/2004.01888.pdf

[11] Learning a Neural Solver for Multiple Object Tracking. //arxiv.org/pdf/1912.07515.pdf

[12] Towards Real-Time Multi-object tracking.  //arxiv.org/pdf/1909.12605v1.pdf

[13] Real-Time Multi People Tracking with Deeply Learned Candidate Selection and Person Re-Identification.  //arxiv.org/abs/1809.04427 

[14] //www.deepexi.com/

 

附錄

1. 測試條件與環境

環境配置:

ubuntu 20.04.4LTS 單卡GTX1060 CUDA Version 10.1.

Python=3.8.3 opencv-python=4.3.0.36 pytorch=1.4 torchvision cudatoolkit=10.1.243

數據集:

public dataset: MOT2017-MOT2020 crowdhuman 用於detection模型訓練和測試

CUHK03 Market1501 DukeMTMC-reID MSMT17用於reID模型訓練