Convolutional Neurons Network 训练参数与连接数计算过程
1.C1層是一個卷積層(為什么是卷積?卷積運算一個重要的特點就是,通過卷積運算,可以使原信號特征增強,并且降低噪音),由6個特征圖Feature Map構成。特征圖中每個神經元與輸入中5*5的鄰域相連。特征圖的大小為28*28,這樣能防止輸入的連接掉到邊界之外(是為了BP反饋時的計算,不致梯度損失,個人見解)。C1有156個可訓練參數(每個濾波器5*5=25個unit參數和一個bias參數,一共6個濾波器,共(5*5+1)*6=156個參數),共156*(28*28)=122,304個連接。---->這一段作者說的很清楚,不用多說了
2.S2層是一個下采樣層(為什么是下采樣?利用圖像局部相關性的原理,對圖像進行子抽樣,可以減少數據處理量同時保留有用信息),有6個14*14的特征圖。特征圖中的每個單元與C1中相對應特征圖的2*2鄰域相連接。S2層每個單元的4個輸入相加,乘以一個可訓練參數,再加上一個可訓練偏置。結果通過sigmoid函數計算。可訓練系數和偏置控制著sigmoid函數的非線性程度。如果系數比較小,那么運算近似于線性運算,亞采樣相當于模糊圖像。如果系數比較大,根據偏置的大小亞采樣可以被看成是有噪聲的“或”運算或者有噪聲的“與”運算。每個單元的2*2感受野并不重疊,因此S2中每個特征圖的大小是C1中特征圖大小的1/4(行和列各1/2)。S2層有12個可訓練參數和5880個連接。
---->6個2*2的小方框,每個有一個參數,加上一個偏置,也就是(1+1)*6=12個可訓練參數
---->對于S2層的每一個圖的每一個點,連接數是(2*2+1)=5,總共是14*14*6*(2*2+1)=5880個連接
3.C3層也是一個卷積層,它同樣通過5x5的卷積核去卷積層S2,然后得到的特征map就只有10x10個神經元,但是它有16種不同的卷積核,所以就存在16個特征map了。這里需要注意的一點是:C3中的每個特征map是連接到S2中的所有6個或者幾個特征map的,表示本層的特征map是上一層提取到的特征map的不同組合(這個做法也并不是唯一的)。
例如,存在的一個方式是:C3的前6個特征圖以S2中3個相鄰的特征圖子集為輸入。接下來6個特征圖以S2中4個相鄰特征圖子集為輸入。然后的3個以不相鄰的4個特征圖子集為輸入。最后一個將S2中所有特征圖為輸入。這樣C3層有1516個可訓練參數和151600個連接。
---->這里的參數和連接數最不好理解啦
---->從C3的角度看,它有16個圖.把每個圖對應的參數加起來就行了:
6*(3*25+1) + 6*(4*25+1) + 3*(4*25+1)+ 1*(6*25+1)=1516個可訓練參數
---->上面的1516*10*10=151600個連接
4.S4層是一個下采樣層,由16個5*5大小的特征圖構成。特征圖中的每個單元與C3中相應特征圖的2*2鄰域相連接,跟C1和S2之間的連接一樣。S4層有32個可訓練參數(每個特征圖1個因子和一個偏置)和2000個連接。
---->16個2*2的小方框,每個有一個參數,加上一個偏置,也就是(1+1)*16=32個可訓練參數
---->對于S4層的每一個圖的每一個點,連接數是(2*2+1)=5,總共是5*5*16*(2*2+1)=2000個連接
5.?C5層是一個卷積層,有120個特征圖。每個單元與S4層的全部16個單元的5*5鄰域相連。由于S4層特征圖的大小也為5*5(同濾波器一樣),故C5特征圖的大小為1*1:這構成了S4和C5之間的全連接。之所以仍將C5標示為卷積層而非全相聯層,是因為如果LeNet-5的輸入變大,而其他的保持不變,那么此時特征圖的維數就會比1*1大。C5層有48120個可訓練連接。
---->120*(5*5*16+1)=48120個可訓練連接
6.?F6層有84個單元(之所以選這個數字的原因來自于輸出層的設計),與C5層全相連。有10164個可訓練參數。如同經典神經網絡,F6層計算輸入向量和權重向量之間的點積,再加上一個偏置。然后將其傳遞給sigmoid函數產生單元i的一個狀態。
---->84*(120+1)=10164個可訓練連接
深入理解卷積:
http://blog.csdn.net/zouxy09/article/details/9993371
http://blog.csdn.net/celerychen2009/article/details/8973218
總結
以上是生活随笔為你收集整理的Convolutional Neurons Network 训练参数与连接数计算过程的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Eclipse新建Android项目后,
- 下一篇: 虚函数(Virtual Function