DFANet: Deep Feature Aggregation for Real-Time Semantic Segmentation(笔记)
論文地址
一、主要內(nèi)容介紹
1. 問(wèn)題背景
對(duì)于高分辨率的圖像,如何在高推斷速度的情況下,保證推斷精度呢?
為了提高模型的學(xué)習(xí)能力,以及增大感受野,特征重利用(feature reuse) 是個(gè)不錯(cuò)的方法。文章提出的網(wǎng)絡(luò)結(jié)構(gòu)如圖Figure 2(d).通過(guò)子網(wǎng)絡(luò)聚合(sub-network aggregation)和子狀態(tài)聚合(sub-stage aggregation)來(lái)重利用特征。
2. 文章貢獻(xiàn)點(diǎn)
文章提出了一種深度信息整合網(wǎng)絡(luò)(DFANet)用于實(shí)時(shí)語(yǔ)義分割。
主要有三個(gè)貢獻(xiàn)點(diǎn):
二、網(wǎng)絡(luò)結(jié)構(gòu)
1. backbone
Figure 3中共有3個(gè)backbone,每個(gè)backbone都是改進(jìn)版的Xception網(wǎng)絡(luò)。
2. 子網(wǎng)絡(luò)聚合——網(wǎng)絡(luò)級(jí)聯(lián)
圖中的紅色箭頭部分
處理過(guò)程:將上一個(gè)backbone 的輸出,作為下一個(gè)backbone的輸入。這個(gè)上一個(gè)backbone 的輸出上采樣四次后輸入下一個(gè)backbone。
3. 子狀態(tài)聚合
橙色箭頭部分。不同backbone的相應(yīng)狀態(tài)聚合
對(duì)于第一個(gè)backbone,n=1n=1n=1,第iii個(gè)狀態(tài)xinx_{i}^{n}xin? 等于上一狀態(tài)的輸入和輸出的和,當(dāng)n>1n>1n>1時(shí),xinx_{i}^{n}xin? 等于上一狀態(tài)(i?1i-1i?1)以及上一個(gè)網(wǎng)絡(luò)(n?1n-1n?1)的當(dāng)前狀態(tài)(iii)的級(jí)聯(lián)。iii – 狀態(tài),nnn – backbone
4. decoder
融合底層和高層的特征,沒(méi)有使用中間層的特征。
三、實(shí)驗(yàn)細(xì)節(jié)
3.損失函數(shù):交叉熵?fù)p失
四、問(wèn)題
當(dāng)使用3個(gè)Backbone A時(shí)的mIoU比2個(gè)時(shí)小?2個(gè)Backbone A時(shí)的感受野已經(jīng)比圖像大,在增加一個(gè)Backbone,會(huì)引入噪聲。
總結(jié)
以上是生活随笔為你收集整理的DFANet: Deep Feature Aggregation for Real-Time Semantic Segmentation(笔记)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: opencv基础
- 下一篇: 神经网络中的激活函数的比较