深度学习(二十一)基于FCN的图像语义分割-CVPR 2015-未完待续
未完待續(xù),敬請(qǐng)期待……
Fully?convolutional?networks
利用深度學(xué)習(xí),進(jìn)行語(yǔ)義分割的開(kāi)山之作,具有非常高的引用率,所以如果搞到深度學(xué)習(xí),圖像分割就會(huì)遇到這個(gè)經(jīng)典算法。
對(duì)于卷積神經(jīng)網(wǎng)絡(luò)的每一層的數(shù)據(jù),其是一個(gè)h*w*d大小的三維矩陣,其中h和w表示本層特征圖的大小,d表示特征圖的個(gè)數(shù)或者可理解為圖片通道數(shù)。我們知道對(duì)于網(wǎng)絡(luò)的輸入層,如果是3通道的彩色圖片,就相當(dāng)于輸入層是3個(gè)feature?map。卷積神經(jīng)網(wǎng)絡(luò)具有平移不變性,我們知道,假設(shè)卷積神經(jīng)網(wǎng)絡(luò)的某一層的數(shù)據(jù)為X,假設(shè)(i,j)坐標(biāo)的數(shù)據(jù)為Xij,那么下一層數(shù)據(jù)的計(jì)算公式就是:
?
其中k就是卷積核大小,s就是跨步大小。fks可以表示卷積、池化、非線性激活函數(shù)等運(yùn)算。
在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)中,我們要求輸入的圖片是固定大小的圖片,那是因?yàn)槲覀冊(cè)诰W(wǎng)絡(luò)的最后幾層有個(gè)全連接層,在這個(gè)全連接層里,輸入和輸出的大小是固定的,也就是參數(shù)的個(gè)數(shù)是固定的。我們也可以把從卷積層到全連接層,看成是對(duì)整張feature?map進(jìn)行卷積,關(guān)于FCN的概念,可以去好好解讀下Overfeat,
總結(jié)
以上是生活随笔為你收集整理的深度学习(二十一)基于FCN的图像语义分割-CVPR 2015-未完待续的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 深度学习(二十)基于Overfeat的物
- 下一篇: 深度学习(二十二)Dropout浅层理解