日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Stanford UFLDL教程 反向传播算法(BP算法)

發(fā)布時(shí)間:2025/3/21 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Stanford UFLDL教程 反向传播算法(BP算法) 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

反向傳播算法(BP算法)

假設(shè)我們有一個(gè)固定樣本集?,它包含??個(gè)樣例。我們可以用批量梯度下降法來求解神經(jīng)網(wǎng)絡(luò)。具體來講,對于單個(gè)樣例,其代價(jià)函數(shù)為:

這是一個(gè)(二分之一的)方差代價(jià)函數(shù)。給定一個(gè)包含??個(gè)樣例的數(shù)據(jù)集,我們可以定義整體代價(jià)函數(shù)為:

以上公式中的第一項(xiàng)??是一個(gè)均方差項(xiàng)。第二項(xiàng)是一個(gè)規(guī)則化項(xiàng)(也叫權(quán)重衰減項(xiàng)),其目的是減小權(quán)重的幅度,防止過度擬合。


[注:通常權(quán)重衰減的計(jì)算并不使用偏置項(xiàng)?,比如我們在??的定義中就沒有使用。一般來說,將偏置項(xiàng)包含在權(quán)重衰減項(xiàng)中只會(huì)對最終的神經(jīng)網(wǎng)絡(luò)產(chǎn)生很小的影響。如果你在斯坦福選修過CS229(機(jī)器學(xué)習(xí))課程,或者在YouTube上看過課程視頻,你會(huì)發(fā)現(xiàn)這個(gè)權(quán)重衰減實(shí)際上是課上提到的貝葉斯規(guī)則化方法的變種。在貝葉斯規(guī)則化方法中,我們將高斯先驗(yàn)概率引入到參數(shù)中計(jì)算MAP(極大后驗(yàn))估計(jì)(而不是極大似然估計(jì))。]


權(quán)重衰減參數(shù)??用于控制公式中兩項(xiàng)的相對重要性。在此重申一下這兩個(gè)復(fù)雜函數(shù)的含義:?是針對單個(gè)樣例計(jì)算得到的方差代價(jià)函數(shù);?是整體樣本代價(jià)函數(shù),它包含權(quán)重衰減項(xiàng)。


以上的代價(jià)函數(shù)經(jīng)常被用于分類和回歸問題。在分類問題中,我們用??或?,來代表兩種類型的標(biāo)簽(回想一下,這是因?yàn)?sigmoid激活函數(shù)的值域?yàn)?;如果我們使用雙曲正切型激活函數(shù),那么應(yīng)該選用??和??作為標(biāo)簽)。對于回歸問題,我們首先要變換輸出值域(譯者注:也就是?),以保證其范圍為??(同樣地,如果我們使用雙曲正切型激活函數(shù),要使輸出值域?yàn)?)。


我們的目標(biāo)是針對參數(shù)??和??來求其函數(shù)??的最小值。為了求解神經(jīng)網(wǎng)絡(luò),我們需要將每一個(gè)參數(shù)??和??初始化為一個(gè)很小的、接近零的隨機(jī)值(比如說,使用正態(tài)分布??生成的隨機(jī)值,其中??設(shè)置為??),之后對目標(biāo)函數(shù)使用諸如批量梯度下降法的最優(yōu)化算法。因?yàn)??是一個(gè)非凸函數(shù),梯度下降法很可能會(huì)收斂到局部最優(yōu)解;但是在實(shí)際應(yīng)用中,梯度下降法通常能得到令人滿意的結(jié)果。最后,需要再次強(qiáng)調(diào)的是,要將參數(shù)進(jìn)行隨機(jī)初始化,而不是全部置為?。如果所有參數(shù)都用相同的值作為初始值,那么所有隱藏層單元最終會(huì)得到與輸入值有關(guān)的、相同的函數(shù)(也就是說,對于所有?,都會(huì)取相同的值,那么對于任何輸入??都會(huì)有:?)。隨機(jī)初始化的目的是使對稱失效


梯度下降法中每一次迭代都按照如下公式對參數(shù)??和?進(jìn)行更新:

其中??是學(xué)習(xí)速率。其中關(guān)鍵步驟是計(jì)算偏導(dǎo)數(shù)。我們現(xiàn)在來講一下反向傳播算法,它是計(jì)算偏導(dǎo)數(shù)的一種有效方法。


我們首先來講一下如何使用反向傳播算法來計(jì)算??和?,這兩項(xiàng)是單個(gè)樣例??的代價(jià)函數(shù)??的偏導(dǎo)數(shù)。一旦我們求出該偏導(dǎo)數(shù),就可以推導(dǎo)出整體代價(jià)函數(shù)??的偏導(dǎo)數(shù):


以上兩行公式稍有不同,第一行比第二行多出一項(xiàng),是因?yàn)闄?quán)重衰減是作用于??而不是?。


反向傳播算法的思路如下:給定一個(gè)樣例?,我們首先進(jìn)行“前向傳導(dǎo)”運(yùn)算,計(jì)算出網(wǎng)絡(luò)中所有的激活值,包括??的輸出值。之后,針對第?層的每一個(gè)節(jié)點(diǎn)?,我們計(jì)算出其“殘差”?,該殘差表明了該節(jié)點(diǎn)對最終輸出值的殘差產(chǎn)生了多少影響。對于最終的輸出節(jié)點(diǎn),我們可以直接算出網(wǎng)絡(luò)產(chǎn)生的激活值與實(shí)際值之間的差距,我們將這個(gè)差距定義為??(第??層表示輸出層)。對于隱藏單元我們?nèi)绾翁幚砟?#xff1f;我們將基于節(jié)點(diǎn)(譯者注:第??層節(jié)點(diǎn))殘差的加權(quán)平均值計(jì)算?,這些節(jié)點(diǎn)以??作為輸入。下面將給出反向傳導(dǎo)算法的細(xì)節(jié):


  • 進(jìn)行前饋傳導(dǎo)計(jì)算,利用前向傳導(dǎo)公式,得到??直到輸出層??的激活值。
  • 對于第??層(輸出層)的每個(gè)輸出單元?,我們根據(jù)以下公式計(jì)算殘差:
    [譯者注:
    ]
  • 對??的各個(gè)層,第??層的第??個(gè)節(jié)點(diǎn)的殘差計(jì)算方法如下:
    {譯者注:
    將上式中的與的關(guān)系替換為與的關(guān)系,就可以得到:
    以上逐次從后向前求導(dǎo)的過程即為“反向傳導(dǎo)”的本意所在。 ]
  • 計(jì)算我們需要的偏導(dǎo)數(shù),計(jì)算方法如下:

  • 最后,我們用矩陣-向量表示法重寫以上算法。我們使用“” 表示向量乘積運(yùn)算符(在Matlab或Octave里用“.*”表示,也稱作阿達(dá)馬乘積)。若?,則?。在上一個(gè)教程中我們擴(kuò)展了??的定義,使其包含向量運(yùn)算,這里我們也對偏導(dǎo)數(shù)??也做了同樣的處理(于是又有??)。


    那么,反向傳播算法可表示為以下幾個(gè)步驟:

  • 進(jìn)行前饋傳導(dǎo)計(jì)算,利用前向傳導(dǎo)公式,得到?直到輸出層??的激活值。
  • 對輸出層(第??層),計(jì)算:
  • 對于??的各層,計(jì)算:
  • 計(jì)算最終需要的偏導(dǎo)數(shù)值:

  • 實(shí)現(xiàn)中應(yīng)注意:在以上的第2步和第3步中,我們需要為每一個(gè)??值計(jì)算其?。假設(shè)??是sigmoid函數(shù),并且我們已經(jīng)在前向傳導(dǎo)運(yùn)算中得到了?。那么,使用我們早先推導(dǎo)出的?表達(dá)式,就可以計(jì)算得到?。


    最后,我們將對梯度下降算法做個(gè)全面總結(jié)。在下面的偽代碼中,?是一個(gè)與矩陣??維度相同的矩陣,?是一個(gè)與??維度相同的向量。注意這里“”是一個(gè)矩陣,而不是“?與??相乘”。下面,我們實(shí)現(xiàn)批量梯度下降法中的一次迭代:


  • 對于所有?,令??,??(設(shè)置為全零矩陣或全零向量)
  • 對于??到?,
  • 使用反向傳播算法計(jì)算??和?。
  • 計(jì)算?。
  • 計(jì)算?。
  • 更新權(quán)重參數(shù):
  • 現(xiàn)在,我們可以重復(fù)梯度下降法的迭代步驟來減小代價(jià)函數(shù)??的值,進(jìn)而求解我們的神經(jīng)網(wǎng)絡(luò)。


    中英文對照

    反向傳播算法 Backpropagation Algorithm
    (批量)梯度下降法 (batch) gradient descent
    (整體)代價(jià)函數(shù) (overall) cost function
    方差 squared-error
    均方差 average sum-of-squares error
    規(guī)則化項(xiàng) regularization term
    權(quán)重衰減 weight decay
    偏置項(xiàng) bias terms
    貝葉斯規(guī)則化方法 Bayesian regularization method
    高斯先驗(yàn)概率 Gaussian prior
    極大后驗(yàn)估計(jì) MAP
    極大似然估計(jì) maximum likelihood estimation
    激活函數(shù) activation function
    雙曲正切函數(shù) tanh function
    非凸函數(shù) non-convex function
    隱藏層單元 hidden (layer) units
    對稱失效 symmetry breaking
    學(xué)習(xí)速率 learning rate
    前向傳導(dǎo) forward pass
    假設(shè)值 hypothesis
    殘差 error term
    加權(quán)平均值 weighted average
    前饋傳導(dǎo) feedforward pass
    阿達(dá)馬乘積 Hadamard product
    前向傳播 forward propagation

    總結(jié)

    以上是生活随笔為你收集整理的Stanford UFLDL教程 反向传播算法(BP算法)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 精品二区在线观看 | 国产电影免费观看高清完整版视频 | 亚洲欧美自拍偷拍 | 一级淫片免费 | 成人做爰黄 | 麻豆md0077饥渴少妇 | 国产永久精品大片wwwapp | 亚洲精品推荐 | 久久国产91| 激情黄色小说视频 | 日本视频中文字幕 | 一级黄网 | 日本免费色 | 日本在线视频免费 | 欧美在线视频免费观看 | 国产麻豆精品视频 | 综合色视频 | 久久精品免费在线观看 | 日韩高清不卡一区 | 五月激情小说 | 手机看片日本 | 夜夜精品视频 | 亚洲精品久久久中文字幕 | 久久怡春院| 久久久久久久91 | www.偷拍.com| 国产免费观看视频 | 成人三级在线视频 | 青青青草视频 | 欧美黑人做爰爽爽爽 | av涩涩 | 久久久久久久国产视频 | 国产精品白嫩白嫩大学美女 | 三上悠亚在线一区二区 | 污污内射久久一区二区欧美日韩 | h片在线播放 | 麻豆视频免费看 | 中文字幕2区 | 欧美日韩在线精品 | av免费观看网 | av在线高清观看 | 一级片中文 | 粗大的内捧猛烈进出视频 | 成人写真福利网 | 欧美18一19性内谢 | 国产成人一区二区三区电影 | 久草视频免费播放 | 亚洲国产视频一区二区三区 | av电影在线不卡 | 亚洲一区网| 国产精品无码AV无码国产 | 成年人视频免费看 | 97国产精品视频 | 国产另类ts人妖一区二区 | 91福利在线导航 | 大肉大捧一进一出好爽动态图 | 精品国产三级片在线观看 | 美女国产毛片a区内射 | 色人阁在线视频 | 欧美香蕉 | 午夜国产福利在线 | 日韩在线视频观看 | 少妇高潮淫片免费观看 | 夜夜爽影院 | 精品国产午夜福利 | 最近中文字幕免费mv视频7 | 免费无遮挡无码永久在线观看视频 | 色狗网站| 欧美寡妇性猛交ⅹxxx | 丰满岳乱妇在线观看中字无码 | 国产精品人八做人人女人a级刘 | 亚色一区 | 亚洲网视频 | 欧美精品免费一区二区三区 | 中文字幕一区二区三区乱码在线 | 国产一区一一区高清不卡 | 精品欧美一区二区精品少妇 | 美女诱惑一区 | 免费操人视频 | 一级a毛片免费观看久久精品 | 亚洲午夜精品久久久久久app | 福利资源在线观看 | 国产aⅴ精品 | 久久99久久99精品蜜柚传媒 | 亚洲天堂2020 | 精品99久久 | 久久精品综合网 | 精品国产三级 | 免费国产在线视频 | 国产涩涩 | 美日韩久久 | 亚洲色图35p | 不卡日本视频 | 国产精品夜夜嗨 | 麻豆精品影院 | 免费在线不卡av | 亚洲综合精品国产一区二区三区 | 欧美性免费 | 日本熟妇色xxxxx日本免费看 |