日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

神经网络weight参数怎么初始化

發布時間:2025/3/21 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络weight参数怎么初始化 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

轉載自:http://blog.csdn.net/xbinworld/article/details/50603552


神經網絡,或者深度學習算法的參數初始化是一個很重要的方面,傳統的初始化方法從高斯分布中隨機初始化參數。甚至直接全初始化為1或者0。這樣的方法暴力直接,但是往往效果一般。本篇文章的敘述來源于一個國外的討論帖子[1],下面就自己的理解闡述一下。

首先我們來思考一下,為什么在神經網絡算法(為了簡化問題,我們以最基本的DNN來思考)中,參數的選擇很重要呢?以sigmoid函數(logistic neurons)為例,當x的絕對值變大時,函數值越來越平滑,趨于飽和,這個時候函數的倒數趨于0,例如,在x=2時,函數的導數約為1/10,而在x=10時,函數的導數已經變成約為1/22000,也就是說,激活函數的輸入是10的時候比2的時候神經網絡的學習速率要慢2200倍!

為了讓神經網絡學習得快一些,我們希望激活函數sigmoid的導數較大。從數值上,大約讓sigmoid的輸入在[-4,4]之間即可,見上圖。當然,也不一定要那么精確。我們知道,一個神經元j的輸入是由前一層神經元的輸出的加權和,xj=iai?wi+bj。因此,我們可以通過控制權重參數初始值的范圍,使得神經元的輸入落在我們需要的范圍內。

一種比較簡單、有效的方法是:權重參數初始化從區間均勻隨機取值。

(?1d,1d),其中d是一個神經元的輸入數量。

為了說明這樣取值的合理性,先簡單回顧一下幾點基本知識:

1.符合均勻分布U(a,b)的隨機變量數學期望和方差分別是——數學期望:E(X)=(a+b)/2,方差:D(X)=(b-a)2/12

2.如果隨機變量X,Y是相互獨立的,那么Var(X+Y) = Var(X)+Var(Y),如果X,Y是相互獨立的且均值為0,那么Var(X*Y) = Var(X)*Var(Y)

因此,如果我們限制神經元的輸入信號(xi)是均值=0,標準差=1的,那么?

Var(wi)=(2d)2/12=13d

Var(i=1dwixi)=d?Var(wi)=13


也就是說,隨機的d個輸入信號加權和,其中權重來自于(?1d,1d)均勻分布,服從均值=0,方差=1/3的正態分布,且與d無關。所以神經元的輸入落在區間[-4,4]之外的概率非常小。


更一般的形式可以寫為:?

i=0d<wixi>=i=0d<wi><xi>=0

?(i=0dwixi)(i=0dwixi)?=i=0d<w2i><x2i>=σ2d


另外一種較新的初始值方法

根據Glorot & Bengio (2010) [4], initialize the weights uniformly within the interval [?b,b], where?

b=6Hk+Hk+1??????????,
Hk?and?Hk+1?are the sizes of the layers before and after the weight matrix, for?sigmoid?units. Or hyperbolic?tangent?units: sample a Uniform [?b,b] with?
b=46Hk+Hk+1??????????,


其他場景的初始值方法[2]

  • in the case of RBMs, a zero-mean Gaussian with a small standard deviation around 0.1 or 0.01 works well (Hinton, 2010) to initialize the weights.

  • Orthogonal random matrix initialization, i.e. W = np.random.randn(ndim, ndim); u, s, v = np.linalg.svd(W) then use u as your initialization matrix.


參考資料

[1]?http://stats.stackexchange.com/questions/47590/what-are-good-initial-weights-in-a-neural-network

[2] Bengio, Yoshua. “Practical recommendations for gradient-based training of deep architectures.” Neural Networks: Tricks of the Trade. Springer Berlin Heidelberg, 2012. 437-478.

[3] LeCun, Y., Bottou, L., Orr, G. B., and Muller, K. (1998a). Efficient backprop. In Neural Networks, Tricks of the Trade.

[4] Glorot, Xavier, and Yoshua Bengio. “Understanding the difficulty of training deep feedforward neural networks.” International conference on artificial intelligence and statistics. 2010.

總結

以上是生活随笔為你收集整理的神经网络weight参数怎么初始化的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。