CVPR 2019 ATOM:《ATOM: Accurate Tracking by Overlap Maximization》论文笔记
目錄
- 簡(jiǎn)介
- 動(dòng)機(jī)
- 貢獻(xiàn)
- 方法
- 實(shí)驗(yàn)
理解出錯(cuò)之處忘不吝指正。
簡(jiǎn)介
本文是MD在ECO系列之后的新paper,CVPR2019的oral,文章質(zhì)量很高。
文章鏈接
代碼鏈接
動(dòng)機(jī)
目前,目標(biāo)跟蹤領(lǐng)域的研究重點(diǎn)集中于分類準(zhǔn)確度,這導(dǎo)致目標(biāo)分類效果好的模型,目標(biāo)估計(jì)(target state estimation)低于預(yù)期,相反一些以前的模型能夠獲得更好的目標(biāo)估計(jì)效果,但這些模型的目標(biāo)分類效果差。
貢獻(xiàn)
方法
本文方法的整體架構(gòu)如下圖所示,其實(shí)較為主要的是兩部分,藍(lán)色的IoU Modulation+藍(lán)色的IoU Predictor可以統(tǒng)稱為目標(biāo)估計(jì)網(wǎng)絡(luò),綠色的Classifier即為目標(biāo)分類網(wǎng)絡(luò)。
目標(biāo)估計(jì)網(wǎng)絡(luò)用于輸出當(dāng)前幀的bbox的IoU,使用IoU-Net+Siamese架構(gòu)得到,具體的如下圖所示。其中,PrPool是IoU-Net中提出的,如下下圖所示。文中提到,直接使用Siamese的架構(gòu)無法得到很好的效果,作者提出了基于調(diào)制(Modulation)的方法。關(guān)于這里的“調(diào)制”,我的個(gè)人理解是,由于直接使用Siamese架構(gòu)不能得到很好的結(jié)果,我們可以將Reference Branch的特征進(jìn)行一下變化,使其能夠“適應(yīng)”Test Branch的“信道”。
由于目標(biāo)估計(jì)網(wǎng)格的判別能力不足,故引入目標(biāo)分類網(wǎng)絡(luò)。這部分本文使用了兩層卷積,直接回歸出以目標(biāo)為中心的高斯label,且使用online training實(shí)現(xiàn)target-specific。但是使用梯度下降法收斂速度過慢,作者將問題轉(zhuǎn)化為了高斯-牛頓最優(yōu)化問題,可以使用共軛梯度法解決。具體步驟如下:
可以看下,本文的online training方法和梯度下降的比較。
具體的跟蹤流程為:
- 使用目標(biāo)分類網(wǎng)絡(luò)計(jì)算置信度,置信度最高的位置記為(x,y)(x, y)(x,y),使用(x,y)(x, y)(x,y)+上一幀目標(biāo)的www和hhh作為初始跟蹤結(jié)果BBB。
- 基于BBB生成10個(gè)候選bbox,利用目標(biāo)估計(jì)網(wǎng)絡(luò)計(jì)算它們的IoU,取前三個(gè)作為候選結(jié)果。
- 將三個(gè)候選結(jié)果取均值,得到最終跟蹤結(jié)果。
實(shí)驗(yàn)
首先是消融實(shí)驗(yàn),Multi-Scale代表多尺度搜索方法;No Classif.代表無在線目標(biāo)分類分支;GD是梯度下降,和本文優(yōu)化方法的“反向傳播”調(diào)用次數(shù)相同,即運(yùn)算速度相同,同時(shí)GD的學(xué)習(xí)率和動(dòng)量參數(shù)經(jīng)過精心調(diào)整;GD++是5倍運(yùn)算量版的梯度下降;No HN代表沒有難負(fù)樣本。
接下來,是在NFS和UAV123數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果:
在TrackingNet數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果:
在LaSOT數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果:
在VOT2018上的實(shí)驗(yàn)結(jié)果:
總結(jié)
以上是生活随笔為你收集整理的CVPR 2019 ATOM:《ATOM: Accurate Tracking by Overlap Maximization》论文笔记的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 正则化和范数
- 下一篇: CVPR 2019 GCT:《Graph