CVPR 2020目标跟踪多篇开源论文(上)
CVPR 2020目標(biāo)跟蹤多篇開源論文(上)
- SiamBAN:面向目標(biāo)跟蹤的Siamese Box自適應(yīng)網(wǎng)絡(luò)
作者團(tuán)隊(duì):華僑大學(xué)&中科院&哈工大&鵬城實(shí)驗(yàn)室&廈門大學(xué)等
論文鏈接:https://arxiv.org/abs/2003.06761
代碼鏈接:https://github.com/hqucv/siamban
注:表現(xiàn)SOTA!速度高達(dá)40 FPS!性能優(yōu)于DiMP、SiamRPN++和ATOM等網(wǎng)絡(luò)。
大多數(shù)現(xiàn)有的跟蹤器通常依賴于多尺度搜索方案或預(yù)定義的anchor boxes來(lái)準(zhǔn)確估計(jì)目標(biāo)的尺度和長(zhǎng)寬比。不幸的是,它們通常要求啟發(fā)式的配置。為解決此問(wèn)題,我們通過(guò)利用全卷積網(wǎng)絡(luò)(FCN)的表征能力,提出了一個(gè)簡(jiǎn)單而有效的視覺跟蹤框架(名為Siamese Box Adaptive Network,SiamBAN)。SiamBAN將視覺跟蹤問(wèn)題視為并行分類和回歸問(wèn)題,因此可以直接對(duì)對(duì)象進(jìn)行分類,并在統(tǒng)一的FCN中對(duì)它們的邊界框進(jìn)行回歸。無(wú)先驗(yàn)box 設(shè)計(jì)避免了與候選box 相關(guān)的超參數(shù),從而使SiamBAN更加靈活和通用。在包括VOT2018,VOT2019,OTB100,NFS,UAV123和LaSOT在內(nèi)的視覺跟蹤基準(zhǔn)上進(jìn)行的大量實(shí)驗(yàn)表明,SiamBAN具有最先進(jìn)的性能并以40 FPS的速度運(yùn)行,證實(shí)了其有效性和效率。
2. MAST:具有記憶增強(qiáng)功能的自監(jiān)督目標(biāo)跟蹤器
作者團(tuán)隊(duì):牛津大學(xué)VGG組
論文鏈接:https://arxiv.org/abs/2002.07793
代碼鏈接:https://github.com/zlai0/MAST
注:自監(jiān)督目標(biāo)跟蹤新網(wǎng)絡(luò),表現(xiàn)SOTA!性能優(yōu)于UVC、CorrFlow和CycleTime等網(wǎng)絡(luò),且接近監(jiān)督類跟蹤網(wǎng)絡(luò)。
最近自監(jiān)督密集跟蹤的工作已取得了快速的進(jìn)展,但是性能仍然遠(yuǎn)遠(yuǎn)達(dá)不到監(jiān)督方法。我們提出了一種在視頻上訓(xùn)練的密集跟蹤模型,該視頻模型沒有任何標(biāo)注,可以在現(xiàn)有基準(zhǔn)上大大超過(guò)以前的自監(jiān)督方法(+15%),并且可以達(dá)到與監(jiān)督方法相當(dāng)?shù)男阅堋T诒疚闹?#xff0c;我們首先通過(guò)進(jìn)行徹底的實(shí)驗(yàn),最終闡明最佳選擇,來(lái)重新評(píng)估用于自監(jiān)督訓(xùn)練和重建損失的傳統(tǒng)選擇。其次,我們通過(guò)使用關(guān)鍵的內(nèi)存組件擴(kuò)展我們的體系結(jié)構(gòu),進(jìn)一步改進(jìn)了現(xiàn)有方法。第三,我們以大規(guī)模的半監(jiān)督視頻對(duì)象分割(也稱為密集跟蹤)為基準(zhǔn),并提出了一個(gè)新的度量標(biāo)準(zhǔn):generalizability。
3. PrDiMP:目標(biāo)跟蹤的概率回歸
作者團(tuán)隊(duì):蘇黎世聯(lián)邦理工學(xué)院
論文鏈接:https://arxiv.org/abs/2003.12565
代碼鏈接:https://github.com/visionml/pytracking
注:在六大數(shù)據(jù)集上,表現(xiàn)SOTA!性能優(yōu)于DiMP、ATOM和SiamRPN++等網(wǎng)絡(luò),代碼現(xiàn)已開源!
從根本上說(shuō),視覺跟蹤是在每個(gè)視頻幀中使目標(biāo)狀態(tài)回歸的問(wèn)題。盡管已經(jīng)取得了重大進(jìn)展,但跟蹤器仍然容易出現(xiàn)故障和不準(zhǔn)確之處。因此,至關(guān)重要的是在目標(biāo)估算中表示不確定性。盡管當(dāng)前的主要范式依賴于估計(jì)與狀態(tài)有關(guān)的置信度得分,但是該值缺乏明確的概率解釋,使它的使用變得復(fù)雜。因此,在這項(xiàng)工作中,我們提出了概率回歸(probabilistic regression)公式,并將其應(yīng)用于跟蹤。我們的網(wǎng)絡(luò)會(huì)根據(jù)輸入圖像預(yù)測(cè)目標(biāo)狀態(tài)的條件概率密度。至關(guān)重要的是,我們的方法能夠?qū)τ捎谌蝿?wù)中不正確的標(biāo)注和歧義而產(chǎn)生的標(biāo)簽噪聲進(jìn)行建模。通過(guò)最小化Kullback-Leibler散度來(lái)訓(xùn)練回歸網(wǎng)絡(luò)。當(dāng)應(yīng)用于跟蹤時(shí),我們的公式不僅允許輸出的概率表示,而且還可以顯著提高性能。我們的跟蹤器在六個(gè)數(shù)據(jù)集上設(shè)置了最新的技術(shù),在LaSOT上實(shí)現(xiàn)了59.8%的AUC,在TrackingNet上實(shí)現(xiàn)了75.8%的成功。
4. AutoTrack:通過(guò)自動(dòng)時(shí)空正則化實(shí)現(xiàn)無(wú)人機(jī)目標(biāo)跟蹤
作者團(tuán)隊(duì):同濟(jì)大學(xué)&新加坡國(guó)立大學(xué)&清華大學(xué)
論文鏈接:https://arxiv.org/abs/2003.12949
代碼鏈接:https://github.com/vision4robotics/AutoTrack
注:無(wú)人機(jī)目標(biāo)跟蹤新網(wǎng)絡(luò),在CPU上高達(dá) 60 FPS!性能優(yōu)于ECO-HC、ARCF-HC等網(wǎng)絡(luò)
現(xiàn)有的大多數(shù)基于判別相關(guān)濾波器(DCF)的跟蹤器試圖引入預(yù)定義的正則化項(xiàng)以改善目標(biāo)對(duì)象的學(xué)習(xí),例如,通過(guò)抑制背景學(xué)習(xí)或通過(guò)限制相關(guān)濾波器的變化率。但是,預(yù)定義的參數(shù)在調(diào)整它們時(shí)會(huì)花費(fèi)很多精力,并且它們?nèi)匀粺o(wú)法適應(yīng)設(shè)計(jì)人員沒有想到的新情況。在這項(xiàng)工作中,提出了一種新穎的方法來(lái)自動(dòng)在線自適應(yīng)地學(xué)習(xí)時(shí)空正則項(xiàng)。引入空間局部響應(yīng)圖變化作為空間正則化,以使DCF專注于對(duì)象的可信賴部分的學(xué)習(xí),而全局響應(yīng)圖變化確定濾波器的更新率。與基于CPU和GPU的最新跟蹤器相比,在四個(gè)UAV基準(zhǔn)上進(jìn)行的廣泛實(shí)驗(yàn)證明了我們方法的優(yōu)越性,在單個(gè)CPU上每秒可運(yùn)行約60幀。我們的跟蹤器還被建議用于無(wú)人機(jī)定位。在室內(nèi)實(shí)際場(chǎng)景中進(jìn)行的大量測(cè)試證明了我們的定位方法的有效性和多功能性。
- LTMU:使用Meta-Updater進(jìn)行高性能的長(zhǎng)時(shí)跟蹤
作者團(tuán)隊(duì):大連理工大學(xué)(盧湖川組)&鵬城實(shí)驗(yàn)室等
論文鏈接:https://arxiv.org/abs/2004.00305
代碼鏈接:https://github.com/Daikenan/LTMU
注:表現(xiàn)SOTA!性能優(yōu)于SiamRPN++、SPLT和MBMD等網(wǎng)絡(luò)中文解讀:CVPR
2020(Oral) | LTMU:給跟蹤器學(xué)習(xí)一個(gè)長(zhǎng)時(shí)更新控制器
長(zhǎng)時(shí)(Long-term)視覺跟蹤引起了越來(lái)越多的關(guān)注,因?yàn)樗榷虝r(shí)跟蹤更接近實(shí)際應(yīng)用。大多數(shù)排名靠前的長(zhǎng)時(shí)跟蹤器采用離線訓(xùn)練的Siamese 體系結(jié)構(gòu),因此,他們無(wú)法從在線更新的短時(shí)跟蹤器的巨大進(jìn)步中受益。但是,由于長(zhǎng)時(shí)的不確定性和嘈雜的觀察,直接引入基于在線更新的跟蹤器來(lái)解決長(zhǎng)時(shí)問(wèn)題是非常冒險(xiǎn)的。在這項(xiàng)工作中,我們提出了一種新穎的離線訓(xùn)練型Meta-Updater,以解決一個(gè)重要但尚未解決的問(wèn)題:跟蹤器是否準(zhǔn)備好在當(dāng)前框架中進(jìn)行更新?提出的Meta-Updater可以按順序有效地集成幾何,判別和外觀提示,然后使用設(shè)計(jì)的級(jí)聯(lián)LSTM模塊挖掘順序信息。我們的Meta-Updater學(xué)習(xí)二進(jìn)制輸出以指導(dǎo)跟蹤器的更新,并且可以輕松地嵌入到不同的跟蹤器中。這項(xiàng)工作還介紹了一個(gè)長(zhǎng)時(shí)跟蹤框架,該框架由在線本地跟蹤器,在線驗(yàn)證器,基于SiamRPN的重新檢測(cè)器和我們的元更新器組成。在VOT2018LT,VOT2019LT,OxUvALT,TLP和LaSOT基準(zhǔn)測(cè)試中的大量實(shí)驗(yàn)結(jié)果表明,我們的跟蹤器的性能明顯優(yōu)于其他競(jìng)爭(zhēng)算法。
總結(jié)
以上是生活随笔為你收集整理的CVPR 2020目标跟踪多篇开源论文(上)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 智能驾驶L2发展策略
- 下一篇: CVPR 2020目标跟踪多篇开源论文(