神经网络反向传播的数学原理
已知:,其中。
求:,,。
到這里,請耐心看完下面的公式推導,無需長久心里建設(shè)。
首先,反向傳播的數(shù)學原理是 “求導的鏈式法則” :
設(shè)和為的可導函數(shù),則。
接下來介紹
-
矩陣、向量求導的維數(shù)相容原則
-
利用維數(shù)相容原則快速推導反向傳播
-
編程實現(xiàn)前向傳播、反向傳播
-
卷積神經(jīng)網(wǎng)絡(luò)的反向傳播
快速矩陣、向量求導
這一節(jié)展示如何使用鏈式法則、轉(zhuǎn)置、組合等技巧來快速完成對矩陣、向量的求導
一個原則維數(shù)相容,實質(zhì)是多元微分基本知識,沒有在課本中找到下列內(nèi)容,維數(shù)相容原則是我個人總結(jié):
維數(shù)相容原則:通過前后換序、轉(zhuǎn)置?使求導結(jié)果滿足矩陣乘法且結(jié)果維數(shù)滿足下式:
如果,?,那么。
利用維數(shù)相容原則解上例:
step1:把所有參數(shù)當做實數(shù)來求導,,
依據(jù)鏈式法則有,,
可以看出除了,和的求導結(jié)果在維數(shù)上連矩陣乘法都不能滿足。
step2:根據(jù) step1 的求導結(jié)果,依據(jù)維數(shù)相容原則做調(diào)整:前后換序、轉(zhuǎn)置
依據(jù)維數(shù)相容原則,但中、,自然得調(diào)整為;
同理:,但?中、,那么通過換序、轉(zhuǎn)置我們可以得到維數(shù)相容的結(jié)果。
對于矩陣、向量求導:
-
“當做一維實數(shù)使用鏈式法則求導,然后做維數(shù)相容調(diào)整,使之符合矩陣乘法原則且維數(shù)相容” 是快速準確的策略;
-
“對單個元素求導、再整理成矩陣形式” 這種方式整理是困難的、過程是緩慢的,結(jié)果是易出錯的(不信你試試)。
如何證明經(jīng)過維數(shù)相容原則調(diào)整后的結(jié)果是正確的呢?直覺!簡單就是美...
快速反向傳播
神經(jīng)網(wǎng)絡(luò)的反向傳播求得 “各層” 參數(shù)和的導數(shù),使用梯度下降(一階 GD、SGD,二階 LBFGS、共軛梯度等)優(yōu)化目標函數(shù)。
接下來,展示不使用下標的記法(,?or)直接對和求導,反向傳播是鏈式法則和維數(shù)相容原則的完美體現(xiàn),對每一層參數(shù)的求導利用上一層的中間結(jié)果完成。
這里的標號,參考?UFLDL 教程 - Ufldl
前向傳播:
?(公式 1)
?? ? ? ? (公式 2)
為第層的中間結(jié)果,為第層的激活值,其中第層包含元素:輸入,參數(shù)、,激活函數(shù),中間結(jié)果,輸出。
設(shè)神經(jīng)網(wǎng)絡(luò)的損失函數(shù)為(這里不給出具體公式,可以是交叉熵、MSE 等),根據(jù)鏈式法則有:
這里記?,其中?、?可由?公式 1?得出,加轉(zhuǎn)置符號是根據(jù)維數(shù)相容原則作出的調(diào)整。
如何求?? 可使用如下遞推(需根據(jù)維數(shù)相容原則作出調(diào)整):
其中、?。
那么我們可以從最頂層逐層往下,便可以遞推求得每一層的
注意:是逐維求導,在公式中是點乘的形式。
反向傳播整個流程如下:
1) 進行前向傳播計算,利用前向傳播公式,得到隱藏層和輸出層 的激活值。
2) 對輸出層 (第層),計算殘差:
(不同損失函數(shù),結(jié)果不同,這里不給出具體形式)
3) 對于的隱藏層,計算:
4) 計算各層參數(shù)、偏導數(shù):
編程實現(xiàn)
大部分開源 library(如:caffe,Kaldi/src/{nnet1,nnet2})的實現(xiàn)通常把、作為一個 layer,激活函數(shù)作為一個 layer(如:sigmoid、relu、softplus、softmax)。
反向傳播時分清楚該層的輸入、輸出即能正確編程實現(xiàn), 如:
?? ? ? ? ? ? ? ? ? ? ? ? ? ? (公式 1)
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? (公式 2)
(1) 式 AffineTransform/FullConnected 層,以下是偽代碼:
注: out_diff =??是上一層(Softmax 或 Sigmoid/ReLU 的 in_diff)已經(jīng)求得:
?(公式 1-1)
?? ? ? ? ? ? ?(公式 1-2)
?? ? ? ? ? ? ? ? ? ?(公式 1-3)
(2) 式激活函數(shù)層(以 Sigmoid 為例)
注:out_diff =?是上一層 AffineTransform 的 in_diff,已經(jīng)求得,
在實際編程實現(xiàn)時,in、out 可能是矩陣 (通常以一行存儲一個輸入向量,矩陣的行數(shù)就是 batch_size),那么上面的 C++ 代碼就要做出變化(改變前后順序、轉(zhuǎn)置,把函數(shù)參數(shù)的 Vector 換成 Matrix,此時 Matrix out_diff 每一行就要存儲對應(yīng)一個 Vector 的 diff,在 update 的時候要做這個 batch 的加和,這個加和可以通過矩陣相乘 out_diff*input(適當?shù)霓D(zhuǎn)置)得到。
如果熟悉 SVD 分解的過程,通過 SVD 逆過程就可以輕松理解這種通過乘積來做加和的技巧。
丟掉那些下標記法吧!
卷積層求導
卷積怎么求導呢?實際上卷積可以通過矩陣乘法來實現(xiàn)(是否旋轉(zhuǎn)無所謂的,對稱處理,caffe 里面是不是有 image2col),當然也可以使用 FFT 在頻率域做加法。
那么既然通過矩陣乘法,維數(shù)相容原則仍然可以運用,CNN 求導比 DNN 復雜一些,要做些累加的操作。具體怎么做還要看編程時選擇怎樣的策略、數(shù)據(jù)結(jié)構(gòu)。
快速矩陣、向量求導之維數(shù)相容大法已成。
總結(jié)
以上是生活随笔為你收集整理的神经网络反向传播的数学原理的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 比特币早期投资家:没有人能够阻止其发展
- 下一篇: http://blog.csdn.net