一文看尽7篇目标跟踪最新论文(ABCTracker/MAST/L1DPF-M等)
前言
恰逢 2020年,本文再次更新近期值得關注的最新目標跟蹤論文。這次分享的paper將同步推送到 github上,歡迎大家 star/fork(點擊閱讀原文,也可直接訪問):
https://github.com/amusi/daily-paper-computer-vision
注意事項:
既含ABCTracker網絡,還有SiamFC++等開源網絡
論文發布時間段:2019年12月31日-2020年02月19日
文末附7篇目標跟蹤論文合集下載鏈接
目標跟蹤論文&項目
【1】曠視Detection組開源:視頻理解算法庫(含單目標跟蹤SOT、視頻目標分割VOS等)
【Video Analyst】這是一系列對視頻理解有用的基本算法的實現(基于PyTorch),包括單目標跟蹤(SOT,Single Object Tracking),視頻目標分割(VOS,Video Object Segmentation)等。
【當前實現列表】單目標跟蹤:? ?- SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines ? ?- 論文鏈接:https://arxiv.org/abs/1911.06188 ? ?- SiamFC++是浙江大學和曠視提出的目標跟蹤論文(收錄于AAAI 2020),速度高達90FPS,表現SOTA!
注:因為該項目剛出來沒多久,所以支持的算法還不是很多,后面應該會陸續更新,大家可以關注一波
項目鏈接:https://github.com/MegviiDetection/video_analyst
SiamFC++
【2】L1DPF-M:整合正則化l1跟蹤和實例分割以進行視頻目標跟蹤
《Integration of Regularized l1 Tracking and Instance Segmentation for Video Object Tracking》
時間:20200102
作者團隊:伊斯坦布爾科技大學
鏈接:https://arxiv.org/abs/1912.12883
代碼(未放源碼):
https://github.com/msprITU/L1DPFM
注:L1DPF-M目標跟蹤新網絡,其性能優于SiamRPN、TCNN等網絡,即將開源!
【3】姿態輔助多攝像機協作以進行主動目標跟蹤
《Pose-Assisted Multi-Camera Collaboration for Active Object Tracking》
時間:20200118
作者團隊:北京大學&北京電影學院&上交&深睿醫療
主頁:https://sites.google.com/view/pose-assistedcollaboration
鏈接:https://arxiv.org/abs/2001.05161
注:性能表現SOTA,優于DaSiam、BACF和RLD等網絡
Overview
【4】ABCTracker:易于使用的基于云的應用程序,用于跟蹤多個對象
《ABCTracker: an easy-to-use, cloud-based application for tracking multiple objects》
時間:20200129
作者團隊:北卡羅來納大學夏洛特分校&亞利桑那大學
主頁:https://abctracker.org/
鏈接:https://arxiv.org/abs/2001.10072
注:ABC Tracker是一種免費,簡單且有效的多目標跟蹤工具,現開放下載和使用(支持螞蟻、蜜蜂等對象的目標跟蹤)
【5】Flow-Fuse-Tracker:通過光流和融合進行多目標跟蹤
《Multiple Object Tracking by Flowing and Fusing》
時間:20200131
作者團隊:CMU&西安交通大學&復旦大學等
鏈接:https://arxiv.org/abs/2001.11180
注:在MOT17等數據集上表現SOTA!優于Tracktor、LSSTO和FAMNet等網絡
【6】OA-LSTM-ADA:目標自適應LSTM網絡,用于對抗性數據增強的實時目標跟蹤
《Object-Adaptive LSTM Network for Real-time Visual Tracking with Adversarial Data Augmentation》
時間:20200210
作者團隊:廈門大學&清華大學等
鏈接:https://arxiv.org/abs/2002.02598
注:一種新的實時視覺跟蹤方法,采用目標自適應LSTM網絡來有效地捕獲視頻序列依存關系并自適應地學習目標外觀變化,表現SOTA!
【7】MAST:具有記憶增強功能的自監督目標跟蹤器
《MAST: A Memory-Augmented Self-Supervised Tracker》
時間:20200219
作者團隊:牛津大學VGG組
鏈接:https://arxiv.org/abs/2002.07793
代碼(即將開源):https://github.com/zlai0/MAST
注:自監督目標跟蹤新網絡,表現SOTA!性能優于UVC、CorrFlow和CycleTime等網絡,且接近監督類跟蹤網絡,代碼即將開源!
為了方便下載,我已經將上述論文打包,在?CVer公眾號?后臺回復:20200221?即可獲得打包鏈接。
往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習在線手冊深度學習在線手冊AI基礎下載(pdf更新到25集)備注:加入本站微信群或者qq群,請回復“加群”獲取一折本站知識星球優惠券,請回復“知識星球”喜歡文章,點個在看
總結
以上是生活随笔為你收集整理的一文看尽7篇目标跟踪最新论文(ABCTracker/MAST/L1DPF-M等)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 励志:读书七年,为了挣钱,我竭尽全力
- 下一篇: Transformer在深度推荐系统中的