日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

详细解释CNN卷积神经网络各层的参数和链接个数的计算

發(fā)布時(shí)間:2025/3/15 卷积神经网络 67 豆豆
生活随笔 收集整理的這篇文章主要介紹了 详细解释CNN卷积神经网络各层的参数和链接个数的计算 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)多層的神經(jīng)網(wǎng)絡(luò),每層由多個(gè)二維平面組成,而每個(gè)平面由多個(gè)獨(dú)立神經(jīng)元組成。

?????? 圖:卷積神經(jīng)網(wǎng)絡(luò)的概念示范:輸入圖像通過和三個(gè)可訓(xùn)練的濾波器和可加偏置進(jìn)行卷積,濾波過程如圖一,卷積后在C1層產(chǎn)生三個(gè)特征映射圖,然后特征映射圖中每組的四個(gè)像素再進(jìn)行求和,加權(quán)值,加偏置,通過一個(gè)Sigmoid函數(shù)得到三個(gè)S2層的特征映射圖。這些映射圖再進(jìn)過濾波得到C3層。這個(gè)層級(jí)結(jié)構(gòu)再和S2一樣產(chǎn)生S4。最終,這些像素值被光柵化,并連接成一個(gè)向量輸入到傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),得到輸出。

??????每個(gè)層有多個(gè)Feature Map,每個(gè)Feature Map通過一種卷積濾波器提取輸入的一種特征,然后每個(gè)Feature Map有多個(gè)神經(jīng)元。

???????CNN一個(gè)牛逼的地方就在于通過感受野和權(quán)值共享減少了神經(jīng)網(wǎng)絡(luò)需要訓(xùn)練的參數(shù)的個(gè)數(shù),所謂權(quán)值共享就是同一個(gè)Feature Map中神經(jīng)元權(quán)值共享,該Feature Map中的所有神經(jīng)元使用同一個(gè)權(quán)值。因此參數(shù)個(gè)數(shù)與神經(jīng)元的個(gè)數(shù)無關(guān),只與卷積核的大小及Feature Map的個(gè)數(shù)相關(guān)。但是共有多少個(gè)連接個(gè)數(shù)就與神經(jīng)元的個(gè)數(shù)相關(guān)了,神經(jīng)元的個(gè)數(shù)也就是特征圖的大小。

???????下面以最經(jīng)典的LeNet-5例子來逐層分析各層的參數(shù)及連接個(gè)數(shù)。

?????????

????????C1層是一個(gè)卷積層,由6個(gè)特征圖Feature Map構(gòu)成。特征圖中每個(gè)神經(jīng)元與輸入為5*5的鄰域相連。特征圖的大小為28*28,這樣能防止輸入的連接掉到邊界之外(32-5+1=28)。C1有156個(gè)可訓(xùn)練參數(shù)(每個(gè)濾波器5*5=25個(gè)unit參數(shù)和一個(gè)bias參數(shù),一共6個(gè)濾波器,共(5*5+1)*6=156個(gè)參數(shù)),共156*(28*28)=122,304個(gè)連接。

????????S2層是一個(gè)下采樣層,有6個(gè)14*14的特征圖。特征圖中的每個(gè)單元與C1中相對(duì)應(yīng)特征圖的2*2鄰域相連接。S2層每個(gè)單元的4個(gè)輸入相加,乘以一個(gè)可訓(xùn)練參數(shù),再加上一個(gè)可訓(xùn)練偏置。每個(gè)單元的2*2感受野并不重疊,因此S2中每個(gè)特征圖的大小是C1中特征圖大小的1/4(行和列各1/2)。S2層有12(6*(1+1)=12)個(gè)可訓(xùn)練參數(shù)和5880(14*14*(2*2+1)*6=5880)個(gè)連接。

??????????C3層也是一個(gè)卷積層,它同樣通過5x5的卷積核去卷積層S2,然后得到的特征map就只有10x10個(gè)神經(jīng)元,但是它有16種不同的卷積核,所以就存在16個(gè)特征map了。 C3中每個(gè)特征圖由S2中所有6個(gè)或者幾個(gè)特征map組合而成。為什么不把S2中的每個(gè)特征圖連接到每個(gè)C3的特征圖呢?原因有2點(diǎn)。第一,不完全的連接機(jī)制將連接的數(shù)量保持在合理的范圍內(nèi)。第二,也是最重要的,其破壞了網(wǎng)絡(luò)的對(duì)稱性。由于不同的特征圖有不同的輸入,所以迫使他們抽取不同的特征(希望是互補(bǔ)的)。

????? 例如,存在的一個(gè)方式是:C3的前6個(gè)特征圖以S2中3個(gè)相鄰的特征圖子集為輸入。接下來6個(gè)特征圖以S2中4個(gè)相鄰特征圖子集為輸入。然后的3個(gè)以不相鄰的4個(gè)特征圖子集為輸入。最后一個(gè)將S2中所有特征圖為輸入。這樣C3層有1516(6*(3*25+1)+6*(4*25+1)+3*(4*25+1)+(25*6+1)=1516)個(gè)可訓(xùn)練參數(shù)和151600(10*10*1516=151600)個(gè)連接。

????? ?S4層是一個(gè)下采樣層,由16個(gè)5*5大小的特征圖構(gòu)成。特征圖中的每個(gè)單元與C3中相應(yīng)特征圖的2*2鄰域相連接,跟C1和S2之間的連接一樣。S4層有32個(gè)可訓(xùn)練參數(shù)(每個(gè)特征圖1個(gè)因子和一個(gè)偏置16*(1+1)=32)和2000(16*(2*2+1)*5*5=2000)個(gè)連接。

??????? C5層是一個(gè)卷積層,有120個(gè)特征圖。每個(gè)單元與S4層的全部16個(gè)單元的5*5鄰域相連。由于S4層特征圖的大小也為5*5(同濾波器一樣),故C5特征圖的大小為1*1(5-5+1=1):這構(gòu)成了S4和C5之間的全連接。之所以仍將C5標(biāo)示為卷積層而非全相聯(lián)層,是因?yàn)槿绻鸏eNet-5的輸入變大,而其他的保持不變,那么此時(shí)特征圖的維數(shù)就會(huì)比1*1大。C5層有48120(120*(16*5*5+1)=48120由于與全部16個(gè)單元相連,故只加一個(gè)偏置)個(gè)可訓(xùn)練連接。

???????F6層有84個(gè)單元(之所以選這個(gè)數(shù)字的原因來自于輸出層的設(shè)計(jì)),與C5層全相連。有10164(84*(120*(1*1)+1)=10164)個(gè)可訓(xùn)練參數(shù)。如同經(jīng)典神經(jīng)網(wǎng)絡(luò),F6層計(jì)算輸入向量和權(quán)重向量之間的點(diǎn)積,再加上一個(gè)偏置。然后將其傳遞給sigmoid函數(shù)產(chǎn)生單元i的一個(gè)狀態(tài)。

????? 最后,輸出層由歐式徑向基函數(shù)(Euclidean Radial Basis Function)單元組成,每類一個(gè)單元,每個(gè)有84個(gè)輸入。

?????????????

圖:卷積和子采樣過程:卷積過程包括:用一個(gè)可訓(xùn)練的濾波器fx去卷積一個(gè)輸入的圖像(第一階段是輸入的圖像,后面的階段就是卷積特征map了),然后加一個(gè)偏置bx,得到卷積層Cx。子采樣過程包括:每鄰域四個(gè)像素求和變?yōu)橐粋€(gè)像素,然后通過標(biāo)量Wx+1加權(quán),再增加偏置bx+1,然后通過一個(gè)sigmoid激活函數(shù),產(chǎn)生一個(gè)大概縮小四倍的特征映射圖Sx+1。


http://blog.csdn.net/dcxhun3/article/details/46878999

?

總結(jié)

以上是生活随笔為你收集整理的详细解释CNN卷积神经网络各层的参数和链接个数的计算的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。