卷积神经网络基础:(7)经典的网络架构
目錄
經典網絡架構:
(1)Alexnet:
?(2)Vgg:
(3)Resnet
經典網絡架構:
(1)Alexnet:
?12年的經典之作,他是一個8層的網絡,有5層的卷積,3層的全連接,其中的LRN層后來被證明沒用,就不用去管他了。
?(2)Vgg:
14年的經典之作,比12年的改進了很多,右邊是vgg有很多不同的版本,紅色框起來的是比較主流的版本,Vgg所有的卷積都是3x3的(比較小),都是細粒度進行特征提取;
Vgg有16層和19層的版本,Vgg中每經過一次pooling,會損失一部分特征信息,體積會變成原來的1/4,會損失信息,Vgg網絡在經過pooling之后會損失信息,他會想辦法彌補回來,他會在下一次卷積過程當中,使得特征圖翻倍,pooling前是64個特征圖,pooling后特征圖是128個特征圖,等等,使用特征圖個數翻倍來彌補長寬的損失信息。
感受野:最終當前一個點能夠感受到原始區域的一個大小,這叫做一個感受野。
(3)Resnet
?15年提出的,這個網絡基本的出發點就是有一個保底,我們的網絡學習完之后至少不會比原來的網絡差。
上一部分是之前遇到的問題,在Vgg上網絡層數越多,網絡結構越深,但是error卻越大,所以增加層數的時候,后邊增加的層數學習的不好,影響了效果;為了解決這個問題,殘差網絡出現了,既要增加層數,也要保證學習的效果好一些。?
所以15年提出了同等映射,我希望加進來一層,雖然你表現的不好,我不能給你剔除掉,但是你表現不好我讓你為0就好了,相當于你加進來我不用你,我知道你表現不好,我把你的權重參數設置為0,我不用你這一層。
Resnet效果:
?左邊是傳統網絡,層數越高他的error值越大;右邊是Resnet,層數越大比之前效果好了,所以說有了殘差網絡,他相當于把深度學習給救活了,神經網絡的層數可以超過20層達到幾百層1千層都沒問題,不會比原來差但是提升也不大。
PS:所以以后大家在做一些實際的問題中,肯定要選擇不同的神經網絡去做,建議首選是殘差網絡。
?
建議把這個網絡理解成特征提取,不建議把他當做一個分類網絡,因為一個問題他是分類還是回歸決定于的是損失函數還有最后的層是怎么連的,所以Resnet既然當做一個特征提取,他能夠運用到各種各樣的框架當中,物體檢測的,物體追蹤的、分類的、檢索的、識別的、什么樣的任務都能用,他相當于是一個通用的網絡結構,能夠到101層(101層是比較常見的數值);
?
總結
以上是生活随笔為你收集整理的卷积神经网络基础:(7)经典的网络架构的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 卷积神经网络基础:(6)卷积神经网络原理
- 下一篇: 卷积神经网络基础:(8)递归神经网络RN