日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

Softer-NMS 论文笔记

發(fā)布時(shí)間:2023/12/14 编程问答 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Softer-NMS 论文笔记 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

文章目錄

  • 背景
  • 創(chuàng)新點(diǎn)
  • Bounding Box Regression with KL Loss
  • Softer-NMS
  • 實(shí)驗(yàn)結(jié)果
  • 參考

《Softer-NMS: Rethinking Bounding Box Regression for Accurate Object Detection》

  • intro:CMU & Face++
  • arXiv:https://arxiv.org/abs/1809.08545
  • github:https://github.com/yihui-he/softer-NMS
  • 推薦:Softer-NMS: Rethinking Bounding Box Regression
    for Accurate Object Detection

背景

先回顧一下NMS和Soft-NMS:

NMS還好理解,就是統(tǒng)計(jì)與指定類別最高置信度BBS具有一定重疊度(IoU)較的BBS,然后根據(jù)IoU閾值來對(duì)置信度進(jìn)行打分。高于閾值,則置信度置為0,低于閾值,則不變。

舉個(gè)例子:

下圖中紅色邊界框的置信度最高,綠色框的置信度較小,但和紅色框的IoU較大,如果按NMS規(guī)則,那么此時(shí)綠色框的置信度則置為0。可是實(shí)際上,綠色框是后面那匹馬的邊界框,而紅色框是前面那匹馬的邊界框,兩者應(yīng)該同時(shí)存在。

其實(shí)是因?yàn)閮蓚€(gè)目標(biāo)太近了,NMS的規(guī)則(閾值的設(shè)定太hard)在這種情況下就不能滿足條件,以至于NMS的recall比較低。

上面NMS使得"重疊邊界框"的置信度為0,所以后面就沒有意義了,該邊界框都不會(huì)再被考慮了。

來看看Soft-NMS如何解決這個(gè)問題的:

方法1:線性法

為了改變NMS這種hard threshold做法,并遵循IoU越大,得分越低的原則(IoU越大,越有可能是False Positive),于是用下面這個(gè)公式來表示Soft-NMS:

方法2:高斯法

但是方法1是不連續(xù)的,這樣會(huì)導(dǎo)致邊界框BBS集合中的score出現(xiàn)斷層,因此就有了下面這個(gè)Soft NMS式子(也是大部分實(shí)驗(yàn)中采用的式子):

解釋一下,為什么IoU越大,得分越低。首先,得分越低是優(yōu)于得分為0的,畢竟還能參與后面的計(jì)算,還有可能被"撈"起來。其次,IoU越大,說明兩個(gè)邊界框?qū)嵲谔鉀Q了,其實(shí)是兩個(gè)很重疊的目標(biāo),其實(shí)對(duì)應(yīng)的邊界框IoU也不是特別大。這里針對(duì)的是對(duì)一個(gè)目標(biāo),檢測(cè)的兩個(gè)重疊度很高的邊界框,所以默認(rèn)最大的就行,但又不能設(shè)置閾值一刀切,所以就設(shè)計(jì)"反比"關(guān)系。

創(chuàng)新點(diǎn)

  • 提出KL Loss:用于具有定位置信度(localization confidence)的訓(xùn)練檢測(cè)網(wǎng)絡(luò)。
  • 提出Softer-NMS:通過置信度估計(jì)來提高定位精度

關(guān)鍵詞:KL Loss、NMS

In this section, we first propose KL Loss for training detection network with localization confidence. Then a new NMS approach is introduced for improving localization accuracy with our confidence estimation.

Bounding Box Regression with KL Loss

  • TODO:原理剖析

Softer-NMS

  • TODO;原理剖析

其實(shí)從下圖中可以看到引入了 variances,這是NMS和Soft-NMS中沒有的。

實(shí)驗(yàn)結(jié)果

從下面的表格中,可以看出KL Loss + Softer-NMS最佳的組合算法。各項(xiàng)條件下,mAP均最高。

參考

Soft NMS算法筆記

總結(jié)

以上是生活随笔為你收集整理的Softer-NMS 论文笔记的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。