Softer-NMS 论文笔记
文章目錄
- 背景
- 創新點
- Bounding Box Regression with KL Loss
- Softer-NMS
- 實驗結果
- 參考
《Softer-NMS: Rethinking Bounding Box Regression for Accurate Object Detection》
- intro:CMU & Face++
- arXiv:https://arxiv.org/abs/1809.08545
- github:https://github.com/yihui-he/softer-NMS
- 推薦:Softer-NMS: Rethinking Bounding Box Regression
for Accurate Object Detection
背景
先回顧一下NMS和Soft-NMS:
NMS還好理解,就是統計與指定類別最高置信度BBS具有一定重疊度(IoU)較的BBS,然后根據IoU閾值來對置信度進行打分。高于閾值,則置信度置為0,低于閾值,則不變。
舉個例子:
下圖中紅色邊界框的置信度最高,綠色框的置信度較小,但和紅色框的IoU較大,如果按NMS規則,那么此時綠色框的置信度則置為0。可是實際上,綠色框是后面那匹馬的邊界框,而紅色框是前面那匹馬的邊界框,兩者應該同時存在。
其實是因為兩個目標太近了,NMS的規則(閾值的設定太hard)在這種情況下就不能滿足條件,以至于NMS的recall比較低。
上面NMS使得"重疊邊界框"的置信度為0,所以后面就沒有意義了,該邊界框都不會再被考慮了。
來看看Soft-NMS如何解決這個問題的:
方法1:線性法
為了改變NMS這種hard threshold做法,并遵循IoU越大,得分越低的原則(IoU越大,越有可能是False Positive),于是用下面這個公式來表示Soft-NMS:
方法2:高斯法
但是方法1是不連續的,這樣會導致邊界框BBS集合中的score出現斷層,因此就有了下面這個Soft NMS式子(也是大部分實驗中采用的式子):
解釋一下,為什么IoU越大,得分越低。首先,得分越低是優于得分為0的,畢竟還能參與后面的計算,還有可能被"撈"起來。其次,IoU越大,說明兩個邊界框實在太解決了,其實是兩個很重疊的目標,其實對應的邊界框IoU也不是特別大。這里針對的是對一個目標,檢測的兩個重疊度很高的邊界框,所以默認最大的就行,但又不能設置閾值一刀切,所以就設計"反比"關系。
創新點
- 提出KL Loss:用于具有定位置信度(localization confidence)的訓練檢測網絡。
- 提出Softer-NMS:通過置信度估計來提高定位精度
關鍵詞:KL Loss、NMS
In this section, we first propose KL Loss for training detection network with localization confidence. Then a new NMS approach is introduced for improving localization accuracy with our confidence estimation.
Bounding Box Regression with KL Loss
- TODO:原理剖析
Softer-NMS
- TODO;原理剖析
其實從下圖中可以看到引入了 variances,這是NMS和Soft-NMS中沒有的。
實驗結果
從下面的表格中,可以看出KL Loss + Softer-NMS最佳的組合算法。各項條件下,mAP均最高。
參考
Soft NMS算法筆記
總結
以上是生活随笔為你收集整理的Softer-NMS 论文笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: MySQL学习路线指南
- 下一篇: PDF如何插入新的PDF页面