一文看盡7篇目標跟蹤最新論文(ABCTracker/MAST/L1DPF-M等)

  • 2020 年 2 月 25 日
  • 筆記

前言

恰逢 2020年,本文再次更新近期值得關注的最新目標跟蹤論文。這次分享的paper將同步推送到 github上,歡迎大家 star/fork(點擊閱讀原文,也可直接訪問):

https://github.com/amusi/daily-paper-computer-vision

注意事項:

  • 既含ABCTracker網路,還有SiamFC++等開源網路
  • 論文發布時間段:2019年12月31日-2020年02月19日
  • 文末附7篇目標跟蹤論文合集下載鏈接

目標跟蹤論文&項目


【1】曠視Detection組開源:影片理解演算法庫(含單目標跟蹤SOT、影片目標分割VOS等)

【Video Analyst】這是一系列對影片理解有用的基本演算法的實現(基於PyTorch),包括單目標跟蹤(SOT,Single Object Tracking),影片目標分割(VOS,Video Object Segmentation)等。

【當前實現列表】單目標跟蹤: – SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines – 論文鏈接:https://arxiv.org/abs/1911.06188 – SiamFC++是浙江大學和曠視提出的目標跟蹤論文(收錄於AAAI 2020),速度高達90FPS,表現SOTA!

註:因為該項目剛出來沒多久,所以支援的演算法還不是很多,後面應該會陸續更新,大家可以關注一波

項目鏈接:https://github.com/MegviiDetection/video_analyst

SiamFC++

【2】L1DPF-M:整合正則化l1跟蹤和實例分割以進行影片目標跟蹤

《Integration of Regularized l1 Tracking and Instance Segmentation for Video Object Tracking》

時間:20200102

作者團隊:伊斯坦布爾科技大學

鏈接:https://arxiv.org/abs/1912.12883

程式碼(未放源碼):

https://github.com/msprITU/L1DPFM

註:L1DPF-M目標跟蹤新網路,其性能優於SiamRPN、TCNN等網路,即將開源!

【3】姿態輔助多攝像機協作以進行主動目標跟蹤

《Pose-Assisted Multi-Camera Collaboration for Active Object Tracking》

時間:20200118

作者團隊:北京大學&北京電影學院&上交&深睿醫療

主頁:https://sites.google.com/view/pose-assistedcollaboration

鏈接:https://arxiv.org/abs/2001.05161

註:性能表現SOTA,優於DaSiam、BACF和RLD等網路

Overview

【4】ABCTracker:易於使用的基於雲的應用程式,用於跟蹤多個對象

《ABCTracker: an easy-to-use, cloud-based application for tracking multiple objects》

時間:20200129

作者團隊:北卡羅來納大學夏洛特分校&亞利桑那大學

主頁:https://abctracker.org/

鏈接:https://arxiv.org/abs/2001.10072

註:ABC Tracker是一種免費,簡單且有效的多目標跟蹤工具,現開放下載和使用(支援螞蟻、蜜蜂等對象的目標跟蹤)

【5】Flow-Fuse-Tracker:通過光流和融合進行多目標跟蹤

《Multiple Object Tracking by Flowing and Fusing》

時間:20200131

作者團隊:CMU&西安交通大學&復旦大學等

鏈接:https://arxiv.org/abs/2001.11180

註:在MOT17等數據集上表現SOTA!優於Tracktor、LSSTO和FAMNet等網路

【6】OA-LSTM-ADA:目標自適應LSTM網路,用於對抗性數據增強的實時目標跟蹤

《Object-Adaptive LSTM Network for Real-time Visual Tracking with Adversarial Data Augmentation》

時間:20200210

作者團隊:廈門大學&清華大學等

鏈接:https://arxiv.org/abs/2002.02598

註:一種新的實時視覺跟蹤方法,採用目標自適應LSTM網路來有效地捕獲影片序列依存關係並自適應地學習目標外觀變化,表現SOTA!

【7】MAST:具有記憶增強功能的自監督目標跟蹤器

《MAST: A Memory-Augmented Self-Supervised Tracker》

時間:20200219

作者團隊:牛津大學VGG組

鏈接:https://arxiv.org/abs/2002.07793

程式碼(即將開源):https://github.com/zlai0/MAST

註:自監督目標跟蹤新網路,表現SOTA!性能優於UVC、CorrFlow和CycleTime等網路,且接近監督類跟蹤網路,程式碼即將開源!