日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

卷积神经网络基础:(7)经典的网络架构

發布時間:2023/11/27 生活经验 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 卷积神经网络基础:(7)经典的网络架构 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

經典網絡架構:

(1)Alexnet:

?(2)Vgg:

(3)Resnet


經典網絡架構:

(1)Alexnet:

?12年的經典之作,他是一個8層的網絡,有5層的卷積,3層的全連接,其中的LRN層后來被證明沒用,就不用去管他了。

?(2)Vgg:

14年的經典之作,比12年的改進了很多,右邊是vgg有很多不同的版本,紅色框起來的是比較主流的版本,Vgg所有的卷積都是3x3的(比較小),都是細粒度進行特征提取;

Vgg有16層和19層的版本,Vgg中每經過一次pooling,會損失一部分特征信息,體積會變成原來的1/4,會損失信息,Vgg網絡在經過pooling之后會損失信息,他會想辦法彌補回來,他會在下一次卷積過程當中,使得特征圖翻倍,pooling前是64個特征圖,pooling后特征圖是128個特征圖,等等,使用特征圖個數翻倍來彌補長寬的損失信息。

感受野:最終當前一個點能夠感受到原始區域的一個大小,這叫做一個感受野。

(3)Resnet

?15年提出的,這個網絡基本的出發點就是有一個保底,我們的網絡學習完之后至少不會比原來的網絡差。

上一部分是之前遇到的問題,在Vgg上網絡層數越多,網絡結構越深,但是error卻越大,所以增加層數的時候,后邊增加的層數學習的不好,影響了效果;為了解決這個問題,殘差網絡出現了,既要增加層數,也要保證學習的效果好一些。?

所以15年提出了同等映射,我希望加進來一層,雖然你表現的不好,我不能給你剔除掉,但是你表現不好我讓你為0就好了,相當于你加進來我不用你,我知道你表現不好,我把你的權重參數設置為0,我不用你這一層。

Resnet效果:

?左邊是傳統網絡,層數越高他的error值越大;右邊是Resnet,層數越大比之前效果好了,所以說有了殘差網絡,他相當于把深度學習給救活了,神經網絡的層數可以超過20層達到幾百層1千層都沒問題,不會比原來差但是提升也不大。

PS:所以以后大家在做一些實際的問題中,肯定要選擇不同的神經網絡去做,建議首選是殘差網絡。

?

建議把這個網絡理解成特征提取,不建議把他當做一個分類網絡,因為一個問題他是分類還是回歸決定于的是損失函數還有最后的層是怎么連的,所以Resnet既然當做一個特征提取,他能夠運用到各種各樣的框架當中,物體檢測的,物體追蹤的、分類的、檢索的、識別的、什么樣的任務都能用,他相當于是一個通用的網絡結構,能夠到101層(101層是比較常見的數值);

?

總結

以上是生活随笔為你收集整理的卷积神经网络基础:(7)经典的网络架构的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。