卷积神经网络(二):卷积神经网络CNN的BP算法
該文檔參考了:http://www.cnblogs.com/tornadomeet/p/3468450.html
在此表示感謝。
一般而言,多類別神經(jīng)網(wǎng)絡(luò)的輸出一般采用softmax形式,即輸出層的激活函數(shù)不采用sigmoid或者tanh函數(shù)。那么神經(jīng)網(wǎng)絡(luò)的最后一層的輸出則為
下面看從pooling層到卷積層的誤差如何反向傳播,和多層神經(jīng)網(wǎng)絡(luò)一樣,可以通過(guò)層與層間的連接實(shí)現(xiàn)誤差傳播,只是計(jì)算公式變?yōu)?#xff0c;
其中的系數(shù)根據(jù)pooling的方法賦值,如果是mean-pooling則把pooling層的誤差平均到其4個(gè)輸入上,如果是max-pooling則把誤差全部反向傳播到其輸入上。
接下來(lái)看如何計(jì)算卷積層反向傳播到pooling的誤差,pooling層中的1個(gè)feature map與M個(gè)卷積層的feature map的相連接,那么該pooling層的誤差項(xiàng)的計(jì)算公式如下,
上述公式中*號(hào)表示卷積操作,即將核函數(shù)K旋轉(zhuǎn)180度后再與誤差項(xiàng)做相關(guān)操作,然后再求和。
最后研究在求得各層的誤差項(xiàng)后如何計(jì)算與卷積層相連接的核函數(shù)的偏導(dǎo)數(shù),計(jì)算公式如下,
即將卷積層的誤差項(xiàng)旋轉(zhuǎn)180度后與其輸入層做相關(guān)操作就可以得到核函數(shù)的偏導(dǎo)數(shù)。
而偏置項(xiàng)的偏導(dǎo)數(shù)則由誤差項(xiàng)內(nèi)所有元素相加得到。
總結(jié)
以上是生活随笔為你收集整理的卷积神经网络(二):卷积神经网络CNN的BP算法的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Win7和VS2013上使用Intel的
- 下一篇: 聚焦和增强卷积神经网络