一文看盡7篇目標跟蹤最新論文(ABCTracker/MAST/L1DPF-M等)
- 2020 年 2 月 25 日
- 筆記
前言
恰逢 2020年,本文再次更新近期值得關注的最新目標跟蹤論文。這次分享的paper將同步推送到 github上,歡迎大家 star/fork(點擊閱讀原文,也可直接訪問):
https://github.com/amusi/daily-paper-computer-vision
注意事項:
- 既含ABCTracker網路,還有SiamFC++等開源網路
- 論文發布時間段:2019年12月31日-2020年02月19日
- 文末附7篇目標跟蹤論文合集下載鏈接
目標跟蹤論文&項目
【1】曠視Detection組開源:影片理解演算法庫(含單目標跟蹤SOT、影片目標分割VOS等)
【Video Analyst】這是一系列對影片理解有用的基本演算法的實現(基於PyTorch),包括單目標跟蹤(SOT,Single Object Tracking),影片目標分割(VOS,Video Object Segmentation)等。
【當前實現列表】單目標跟蹤: – SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines – 論文鏈接:https://arxiv.org/abs/1911.06188 – SiamFC++是浙江大學和曠視提出的目標跟蹤論文(收錄於AAAI 2020),速度高達90FPS,表現SOTA!
註:因為該項目剛出來沒多久,所以支援的演算法還不是很多,後面應該會陸續更新,大家可以關注一波
項目鏈接:https://github.com/MegviiDetection/video_analyst

SiamFC++

【2】L1DPF-M:整合正則化l1跟蹤和實例分割以進行影片目標跟蹤
《Integration of Regularized l1 Tracking and Instance Segmentation for Video Object Tracking》
時間:20200102
作者團隊:伊斯坦布爾科技大學
鏈接:https://arxiv.org/abs/1912.12883
程式碼(未放源碼):
https://github.com/msprITU/L1DPFM
註:L1DPF-M目標跟蹤新網路,其性能優於SiamRPN、TCNN等網路,即將開源!


【3】姿態輔助多攝像機協作以進行主動目標跟蹤
《Pose-Assisted Multi-Camera Collaboration for Active Object Tracking》
時間:20200118
作者團隊:北京大學&北京電影學院&上交&深睿醫療
主頁:https://sites.google.com/view/pose-assistedcollaboration
鏈接:https://arxiv.org/abs/2001.05161
註:性能表現SOTA,優於DaSiam、BACF和RLD等網路

Overview


【4】ABCTracker:易於使用的基於雲的應用程式,用於跟蹤多個對象
《ABCTracker: an easy-to-use, cloud-based application for tracking multiple objects》
時間:20200129
作者團隊:北卡羅來納大學夏洛特分校&亞利桑那大學
主頁:https://abctracker.org/
鏈接:https://arxiv.org/abs/2001.10072
註:ABC Tracker是一種免費,簡單且有效的多目標跟蹤工具,現開放下載和使用(支援螞蟻、蜜蜂等對象的目標跟蹤)


【5】Flow-Fuse-Tracker:通過光流和融合進行多目標跟蹤
《Multiple Object Tracking by Flowing and Fusing》
時間:20200131
作者團隊:CMU&西安交通大學&復旦大學等
鏈接:https://arxiv.org/abs/2001.11180
註:在MOT17等數據集上表現SOTA!優於Tracktor、LSSTO和FAMNet等網路




【6】OA-LSTM-ADA:目標自適應LSTM網路,用於對抗性數據增強的實時目標跟蹤
《Object-Adaptive LSTM Network for Real-time Visual Tracking with Adversarial Data Augmentation》
時間:20200210
作者團隊:廈門大學&清華大學等
鏈接:https://arxiv.org/abs/2002.02598
註:一種新的實時視覺跟蹤方法,採用目標自適應LSTM網路來有效地捕獲影片序列依存關係並自適應地學習目標外觀變化,表現SOTA!


【7】MAST:具有記憶增強功能的自監督目標跟蹤器
《MAST: A Memory-Augmented Self-Supervised Tracker》
時間:20200219
作者團隊:牛津大學VGG組
鏈接:https://arxiv.org/abs/2002.07793
程式碼(即將開源):https://github.com/zlai0/MAST
註:自監督目標跟蹤新網路,表現SOTA!性能優於UVC、CorrFlow和CycleTime等網路,且接近監督類跟蹤網路,程式碼即將開源!


