日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

Faster-RCNN的一些记录。

發(fā)布時(shí)間:2025/3/16 76 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Faster-RCNN的一些记录。 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

Faster-RCNN詳解

Ross B. Girshick的論文《Faster R-CNN: Towards Real-Time ObjectDetection with Region Proposal Networks

主要解決兩個(gè)問題:

1、提出區(qū)域建議網(wǎng)絡(luò)RPN,快速生成候選區(qū)域;

2、通過交替訓(xùn)練,使RPNFast-RCNN網(wǎng)絡(luò)共享參數(shù)。

另外Faster RCN已經(jīng)將特征抽取(feature extraction)proposal提取(RPN),bounding box regressionclassification都整合在了一個(gè)網(wǎng)絡(luò)中,使得綜合性能有較大提高,在檢測速度方面尤為明顯

?

1RPN網(wǎng)絡(luò)

RPN網(wǎng)絡(luò)的作用是輸入一張圖像,輸出一批矩形候選區(qū)域,類似于Selective Search的作用,網(wǎng)絡(luò)結(jié)構(gòu)是卷積神經(jīng)網(wǎng)絡(luò),輸出時(shí)包含softmax二類分類器(是否是候選框)和bbox回歸得出候選邊界框的位置的四個(gè)參數(shù)(box的中心坐標(biāo)xyboxhw),

?

2anchor機(jī)制

anchorrpn網(wǎng)絡(luò)的核心RPN網(wǎng)絡(luò)需要確定每個(gè)滑窗中心對應(yīng)感受野內(nèi)存在目標(biāo)與否,但是由于目標(biāo)大小和長寬比例不一,需要多個(gè)尺度的窗。所以Anchor正是給出一個(gè)基準(zhǔn)窗大小,可以按照倍數(shù)和長寬比例可以得到不同大小的窗,論文中基準(zhǔn)窗大小為16,給了(81632)三種倍數(shù)和(0.512)三種比例,這樣能夠得到一共9種尺度的anchor

例如:在對60*40的特征圖map進(jìn)行滑窗時(shí),以中心像素為基點(diǎn)構(gòu)造9anchor映射到原來的1000*600圖像中,映射比例為16倍。那么總共可以得到60*40*9大約2萬個(gè)anchor

3、訓(xùn)練

對于分類器,采anchor是否有目標(biāo),用了這樣的規(guī)則判斷:1)假如某anchor與任一目標(biāo)區(qū)域的IoU最大,則該anchor判定為有目標(biāo);2)假如某anchor與任一目標(biāo)區(qū)域的IoU>0.7,則判定為有目標(biāo);3)假如某anchor與任一目標(biāo)區(qū)域的IoU<0.3,則判定為背景。

所謂IoU,就是預(yù)測box和真實(shí)box的覆蓋率,其值等于兩個(gè)box的交集除以兩個(gè)box的并集。其它的anchor不參與訓(xùn)練

對于回歸器:判定為有目標(biāo)的anchor,并將其標(biāo)注的坐標(biāo)作為ground truth

代價(jià)函數(shù)為:

代價(jià)函數(shù)分為兩部分,前邊對應(yīng)anchor中是否有目標(biāo)的分類誤差,后邊對應(yīng)bbox回歸誤差。

4、聯(lián)合訓(xùn)練

1 單獨(dú)訓(xùn)練RPN網(wǎng)絡(luò),網(wǎng)絡(luò)參數(shù)由預(yù)訓(xùn)練模型載入;

2 單獨(dú)訓(xùn)練Fast-RCNN網(wǎng)絡(luò),將第一步RPN的輸出候選區(qū)域作為檢測網(wǎng)絡(luò)的輸入。具體而言,RPN輸出一個(gè)候選框,通過候選框截取原圖像,并將截取后的圖像通過幾次conv-pool,然后再通過roi-poolingfc再輸出兩條支路,一條是目標(biāo)分類softmax,另一條是bbox回歸。截止到現(xiàn)在,兩個(gè)網(wǎng)絡(luò)并沒有共享參數(shù),只是分開訓(xùn)練了;

3 再次訓(xùn)練RPN,此時(shí)固定網(wǎng)絡(luò)公共部分的參數(shù),只更新RPN獨(dú)有部分的參數(shù);

4 RPN的結(jié)果再次微調(diào)Fast-RCNN網(wǎng)絡(luò),固定網(wǎng)絡(luò)公共部分的參數(shù),只更新Fast-RCNN獨(dú)有部分的參數(shù)。

5、其他理解

從上圖來看:
1 Faster RCNN首先使用一組基礎(chǔ)conv layer(conv+relu+pooling)提取imagefeature maps。該feature maps被共享用于后續(xù)RPN層和全連接層。

2) RPNRegion Proposal Networks)。RPN網(wǎng)絡(luò)用于生成region proposals。該層通過softmax判斷anchors屬于foreground或者background,再利用bounding box regression修正anchors的位置,最終獲得精確位置的region proposals(候選框)。

3RoI Pooling。輸入的feature maps和候選框(region proposals),綜合這些信息后提取proposal?feature maps,送入后面全連接層判定目標(biāo)類別

4Classification and regression。利用proposal?feature maps計(jì)算region proposal中物體的類別,同時(shí)再次bounding box regression獲得檢測框最終的精確位置

6、其他理解

I是輸入圖像,conv是卷積層,Hnetwork headC使classificationSoftmax二分類anchor中是否有目標(biāo),BBbox回歸得到候選框,poolROI Pooling

7、其他概念

bounding box regression:對定位不準(zhǔn)的邊界框進(jìn)行微調(diào),即尋找一種映射關(guān)系是定位不準(zhǔn)的邊界框經(jīng)過映射后得到跟ground true接近的邊界框。

RPN步驟:生成anchors -> softmax分類器提取fg anchors?-> bbox reg回歸fg anchors -> Proposal Layer過濾得到最終的proposal ?boxs

多通道卷積:對多通道圖像做1x1卷積,其實(shí)就是將輸入圖像于每個(gè)通道乘以卷積系數(shù)后加在一起,即相當(dāng)于把原圖像中本來各個(gè)獨(dú)立的通道“聯(lián)通”在了一起

總結(jié)

以上是生活随笔為你收集整理的Faster-RCNN的一些记录。的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。