Softer-NMS 论文笔记
文章目錄
- 背景
- 創(chuàng)新點(diǎn)
- Bounding Box Regression with KL Loss
- Softer-NMS
- 實(shí)驗(yàn)結(jié)果
- 參考
《Softer-NMS: Rethinking Bounding Box Regression for Accurate Object Detection》
- intro:CMU & Face++
- arXiv:https://arxiv.org/abs/1809.08545
- github:https://github.com/yihui-he/softer-NMS
- 推薦:Softer-NMS: Rethinking Bounding Box Regression
for Accurate Object Detection
背景
先回顧一下NMS和Soft-NMS:
NMS還好理解,就是統(tǒng)計(jì)與指定類別最高置信度BBS具有一定重疊度(IoU)較的BBS,然后根據(jù)IoU閾值來對(duì)置信度進(jìn)行打分。高于閾值,則置信度置為0,低于閾值,則不變。
舉個(gè)例子:
下圖中紅色邊界框的置信度最高,綠色框的置信度較小,但和紅色框的IoU較大,如果按NMS規(guī)則,那么此時(shí)綠色框的置信度則置為0。可是實(shí)際上,綠色框是后面那匹馬的邊界框,而紅色框是前面那匹馬的邊界框,兩者應(yīng)該同時(shí)存在。
其實(shí)是因?yàn)閮蓚€(gè)目標(biāo)太近了,NMS的規(guī)則(閾值的設(shè)定太hard)在這種情況下就不能滿足條件,以至于NMS的recall比較低。
上面NMS使得"重疊邊界框"的置信度為0,所以后面就沒有意義了,該邊界框都不會(huì)再被考慮了。
來看看Soft-NMS如何解決這個(gè)問題的:
方法1:線性法
為了改變NMS這種hard threshold做法,并遵循IoU越大,得分越低的原則(IoU越大,越有可能是False Positive),于是用下面這個(gè)公式來表示Soft-NMS:
方法2:高斯法
但是方法1是不連續(xù)的,這樣會(huì)導(dǎo)致邊界框BBS集合中的score出現(xiàn)斷層,因此就有了下面這個(gè)Soft NMS式子(也是大部分實(shí)驗(yàn)中采用的式子):
解釋一下,為什么IoU越大,得分越低。首先,得分越低是優(yōu)于得分為0的,畢竟還能參與后面的計(jì)算,還有可能被"撈"起來。其次,IoU越大,說明兩個(gè)邊界框?qū)嵲谔鉀Q了,其實(shí)是兩個(gè)很重疊的目標(biāo),其實(shí)對(duì)應(yīng)的邊界框IoU也不是特別大。這里針對(duì)的是對(duì)一個(gè)目標(biāo),檢測(cè)的兩個(gè)重疊度很高的邊界框,所以默認(rèn)最大的就行,但又不能設(shè)置閾值一刀切,所以就設(shè)計(jì)"反比"關(guān)系。
創(chuàng)新點(diǎn)
- 提出KL Loss:用于具有定位置信度(localization confidence)的訓(xùn)練檢測(cè)網(wǎng)絡(luò)。
- 提出Softer-NMS:通過置信度估計(jì)來提高定位精度
關(guān)鍵詞:KL Loss、NMS
In this section, we first propose KL Loss for training detection network with localization confidence. Then a new NMS approach is introduced for improving localization accuracy with our confidence estimation.
Bounding Box Regression with KL Loss
- TODO:原理剖析
Softer-NMS
- TODO;原理剖析
其實(shí)從下圖中可以看到引入了 variances,這是NMS和Soft-NMS中沒有的。
實(shí)驗(yàn)結(jié)果
從下面的表格中,可以看出KL Loss + Softer-NMS最佳的組合算法。各項(xiàng)條件下,mAP均最高。
參考
Soft NMS算法筆記
總結(jié)
以上是生活随笔為你收集整理的Softer-NMS 论文笔记的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: MySQL学习路线指南
- 下一篇: PDF如何插入新的PDF页面