日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

一文读懂残差网络ResNet

發布時間:2025/3/8 编程问答 18 豆豆
生活随笔 收集整理的這篇文章主要介紹了 一文读懂残差网络ResNet 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

作者:苘郁蓁

鏈接:https://zhuanlan.zhihu.com/p/91385516

專欄:郁蓁的機器學習筆記

本文的內容包括殘差網絡的基礎知識以及相關輔助理解的知識點,希望有一定深

度學習基礎的同學能夠平滑上手理解ResNet。

本文包括什么:

  • 殘差網絡的由來,為什么需要殘差網絡?

  • 殘差網絡是什么,怎么定義?

  • 殘差網絡為什么好用?優越性在哪里?

  • 有沒有一個簡單的例子來直觀看懂什么是殘差網絡?

殘差網絡的由來

殘差操作這一思想起源于論文《Deep Residual Learning for Image Recognition》,目前的引用量已達3萬多。這篇文章發現,如果存在某個層的網絡是當前最優的網絡,那么可以構造一個更深的網絡,其最后幾層僅是該網絡第層輸出的恒等映射(Identity Mapping),就可以取得與一致的結果;也許還不是所謂“最佳層數”,那么更深的網絡就可以取得更好的結果??偠灾?#xff0c;與淺層網絡相比,更深的網絡的表現不應該更差。但是如下圖所示,56層的神經網絡表現明顯要比20層的差。證明更深的網絡在訓練過程中的難度更大,因此作者提出了殘差網絡的思想。

網絡層數加深導致的訓練問題

殘差網絡的定義

殘差網絡依舊讓非線形層滿足??,然后從輸入直接引入一個短連接到非線形層的輸出上,使得整個映射變為

這就是殘差網路的核心公式,換句話說,殘差是網絡搭建的一種操作,任何使用了這種操作的網絡都可以稱之為殘差網絡。

一個具體的殘差模塊的定義如下圖:

殘差模塊(由于先敲公式后引得圖,容易混淆,圖中的F(x)就是上文所說的H(x,w),下面也一樣替換)

殘差網絡的優勢

殘差模塊為什么有效,有很多的解釋,這里提供兩個方面的理解,一方面是殘差網絡更好的擬合分類函數以獲得更高的分類精度,另一方面是殘差網絡如何解決網絡在層數加深時優化訓練上的難題。

1.殘差網絡擬合函數的優越性

首先從萬能近似定理(Universal Approximation Theorem)入手。這個定理表明,一個前饋神經網絡(feedforward neural network)如果具有線性輸出層,同時至少存在一層具有任何一種“擠壓”性質的激活函數(例如logistic sigmoid激活函數)的隱藏層,那么只要給予這個網絡足夠數量的隱藏單元,它就可以以任意的精度來近似任何從一個有限維空間到另一個有限維空間的波萊爾可測函數(Borel Measurable Function)。

萬能近似定理意味著我們在構建網絡來學習什么函數的時候,我們知道一定存在一個多層感知機(Multilayer Perceptron Model,MLP)能夠表示這個函數。然而,我們不能保證訓練算法能夠學得這個函數。因為即使多層感知機能夠表示該函數,學習也可能會失敗,可能的原因有兩種。

(1)用于訓練的優化算法可能找不到用于期望函數的參數值。

(2)訓練算法可能由于過擬合而選擇了錯誤的函數。

第二種過擬合情況不在我們的討論范圍之內,因此我們聚焦在前一種情況,為何殘差網絡相比簡單的多層網絡能更好的擬合分類函數,即找到期望函數的參數值。

對于普通的不帶短連接的神經網絡來說,存在這樣一個命題。

命題1:假設??為普通的帶激活函數的全連接網絡??。??為??的正等值面,假如??的每個層的激活函數都至多只有?個神經元,那么

?為勒貝格測度。換句話說,這樣狹窄的全連接網絡表示的函數要么沒有邊界約束,要么恒為0。因此,即使層數無限加深,整個網絡的表現力也受網絡的寬度限制而無法近似一個帶邊界的區域。而對于殘差網絡來講,擬合函數的能力則完全不受網路寬度的影響,上述命題1對于殘差網絡并不適用。

下面從一個簡單的二維例子來說明這一點,這樣可以進行方便的可視化。我們隨機生成一組測試點??,滿足

我們手動構造一個清晰的分類邊界使得整個任務更容易一點,損失函數采用邏輯回歸損失?,其中??為網絡對于樣本??的實際輸出。經過訓練后,分析網絡不同深度下得到的訓練邊界,如圖3.5可以發現寬度比輸入維度小的殘差網絡的訓練邊界明顯更加接近真實邊界,也不受命題1的限制。

圖3.5 不同網絡結構擬合函數邊界的結果。左上角為函數的真實邊界。第一行是簡單的全連接網絡,每層的神經元個數為2;第二行為帶短連接的網絡,每層神經元個數為1。從左到右的網絡層數依次遞增,分別為1-5層。

事實上對于高維函數,這一特點依然適用。因此,當函數的輸入維度非常高時,這一做法就變的非常有意義。盡管在高維空間這一特點很難被可視化,但是這個理論給了一個很合理的啟發,就是原則上,帶短連接的網絡的擬合高維函數的能力比普通連接的網絡更強。這部分我們討論了殘差網絡有能力擬合更高維的函數,但是在實際的訓練過程中仍然可能存在各種各樣的問題使得學習到最優的參數非常困難,因此下一小節討論殘差在訓練過程中的優越性。

2.殘差網絡訓練過程的優越性

這個部分我們討論為什么殘差能夠緩解深層網絡的訓練問題,以及探討可能的短連接方式和我們最終選擇的殘差的理由。正如本章第三部分討論的一樣,整個殘差卷積神經網絡是由以上的殘差卷積子模塊堆積而成。如上一小節所定義的,假設第??層的殘差卷積字子模塊的映射為

?是第??層的輸入,??是第??層的參數,??是殘差單元層數。

那么第??層的輸入為

因此得到

循環帶入這個式子??,我們可以得到

?(1)

對于任何深度的L來講,上述式子(1)顯示了一些良好的特性。

(1)第層的特征可以分為兩個部分,第一部分是淺層的網絡表示加上一個殘差函數映射??,表明模型在任意單元內都是一個殘差的形式。

(2)對于任意深度??的特征??來講,它是前面所有殘差模塊的和,這與簡單的不加短連接的網絡完全相反。原因是,不加短連接的網絡在第??層的特征??是一系列的向量乘的結果,即??(在忽略batch normalization和激活函數的情況下)。

同樣,上述式子顯示有非常好的反向傳播特性,假設損失為??,根據鏈式求導法則,我們可以得到

?(2)

顯示梯度由兩個部分組成,一部分??是不用經過任何權重加權的信息流,另一部分是通過加權層的??,兩部分連接的線形特性保證了信息可以直接反向傳播到淺層。同時式子還說明對于小的batch而言,梯度??不太可能會消失,因為通常 對于小的batch來講不會總是為1,那么這表示即使權重非常小,梯度也不會為0,不存在梯度消失的問題。

總之,式子(1)和(2)表明信號無論是在前向傳播還是反向傳播的過程中,都是可以直接通過的。

殘差模塊的實現例子

大家可以對照圖看具體的實現:

import torch.nn as nn import torch from torch.nn.init import kaiming_normal, constantclass BasicConvResBlock(nn.Module):def __init__(self, input_dim=128, n_filters=256, kernel_size=3, padding=1, stride=1, shortcut=False, downsample=None):super(BasicConvResBlock, self).__init__()self.downsample = downsampleself.shortcut = shortcutself.conv1 = nn.Conv1d(input_dim, n_filters, kernel_size=kernel_size, padding=padding, stride=stride)self.bn1 = nn.BatchNorm1d(n_filters)self.relu = nn.ReLU()self.conv2 = nn.Conv1d(n_filters, n_filters, kernel_size=kernel_size, padding=padding, stride=stride)self.bn2 = nn.BatchNorm1d(n_filters)def forward(self, x):residual = xout = self.conv1(x)out = self.bn1(out)out = self.relu(out)out = self.conv2(out)out = self.bn2(out)if self.shortcut:out += residualout = self.relu(out)return out

碼字不易,覺得有收獲記得點贊哦~

備注:公眾號菜單包含了整理了一本AI小抄非常適合在通勤路上用學習。

往期精彩回顧那些年做的學術公益-你不是一個人在戰斗適合初學者入門人工智能的路線及資料下載機器學習在線手冊深度學習在線手冊備注:加入本站微信群或者qq群,請回復“加群”加入知識星球(4500+用戶,ID:92416895),請回復“知識星球”

喜歡文章,點個在看

總結

以上是生活随笔為你收集整理的一文读懂残差网络ResNet的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 老司机深夜影院 | 调教丰满的已婚少妇在线观看 | 黄色一级大片在线免费看国产 | 亚洲国产丝袜 | 亚洲欧美日韩精品色xxx | a级小视频 | 99热这里只有精品5 国产精品伦子伦免费视频 精品一二三 | 激情综合图区 | 麻豆91在线观看 | 国精产品一区一区三区免费视频 | 怨女1988国语版在线观看高清 | 亚洲免费黄色网址 | 国产一区免费观看 | 国产精品国产三级国产aⅴ 欧美bbbbbbbbbbbb18av | www.国产视频 | 国产伦精品一区二区三区高清版禁 | 午夜精品国产精品大乳美女 | 又大又粗弄得我出好多水 | 国产成人亚洲精品无码h在线 | 亚洲最大视频网 | 一本大道东京热无码 | 欧美一级电影在线 | 日韩在线视频二区 | 大胸美女被爆操 | 97热久久 | 爱乃なみ加勒比在线播放 | 亚洲超丰满肉感bbw 悠悠av | 韩国美女一区二区 | 三级在线看中文字幕完整版 | 毛片a片免费看 | 国产精品欧美久久久久天天影视 | 99热播精品 | 日本αv | 国产女人叫床高潮大片免费 | 亚洲第一页在线 | 自拍偷拍亚洲视频 | 一级片在线免费观看视频 | 国产黑丝91| 欧美深夜在线 | 天堂资源在线播放 | av香港经典三级级 在线 | 成人在线免费高清视频 | 熟妇人妻无乱码中文字幕真矢织江 | 人民的名义第二部 | 亚洲免费在线看 | 丁香花免费高清完整在线播放 | 肉色超薄丝袜脚交一区二区图片 | 一级免费黄色 | 午夜精品一区 | 国产精品视频久久久久 | 美国性生活大片 | ass极品国模人体欣赏 | av在线网页 | 91社区视频 | 91传媒入口| yjizz视频 | 欧美视频综合 | 猛1被调教成公厕尿便失禁网站 | 在线观看波多野结衣 | 天天碰天天干 | 国产主播专区 | 91久久免费 | 婷婷社区五月天 | 久久亚洲一区 | 深夜福利麻豆 | 午夜av大片| 男人桶进美女尿囗 | 欧美不卡一区二区 | 久久亚洲AV成人无码国产人妖 | 懂色一区二区 | 天海翼一二三区 | 老女人做爰全过程免费的视频 | 欧美日韩在线免费 | 久久精品国产99精品国产亚洲性色 | www.欧美视频 | 51调教丨国产调教视频 | 精品视频久久久久 | 小泽玛利亚一区二区三区视频 | 国产成人精品综合在线观看 | 亚洲综合天堂 | 韩国三级bd高清中字2021 | 成人久久久久久久 | 久久影院一区二区 | 成人网页 | 在线观看视频一区二区 | 精彩久久 | 日本做受 | 自拍偷拍国产精品 | www.亚洲一区二区三区 | 美女日批网站 | 一区二区三区四区不卡 | 日本一二三不卡视频 | 欧美mv日韩mv国产 | 日本不卡视频在线播放 | 无码免费一区二区三区免费播放 | av片在线观看免费 | 午夜精品一区二区三 | 欧美日韩国产免费观看 | 骚婷婷|