日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

dropout+Batch Normalization理解

發(fā)布時間:2025/3/21 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 dropout+Batch Normalization理解 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Dropout理解:

在沒有dropout時,正向傳播如下:

加入dropout后:?

測試時,需要每個權(quán)值乘以P:?

?

Dropout官方源碼:

#dropout函數(shù)實(shí)現(xiàn) def dropout(x, level): # level為神經(jīng)元丟棄的概率值,在0-1之間if level < 0. or level >= 1:raise Exception('Dropout level must be in interval [0, 1[.') retain_prob = 1. - level # 利用binomial函數(shù)(二項(xiàng)分布),生成與x一樣的維數(shù)向量。# 神經(jīng)元x保留的概率為p,n表示每個神經(jīng)元參與隨機(jī)實(shí)驗(yàn)的次數(shù),通常為1,。# size是神經(jīng)元總數(shù)。 sample=np.random.binomial(n=1,p=retain_prob,size=x.shape)# 上一行代碼最后生成一個0、1分布的向量,0表示該神經(jīng)元被丟棄 x *=sample #用x乘sample決定哪些神經(jīng)元被丟棄x /= retain_prob return x

Batch Normalization

BN是將輸入的數(shù)據(jù)分布變成高斯分布,這樣可以保證每一層神經(jīng)網(wǎng)絡(luò)的輸入保持相同分布。BN就是通過規(guī)范化的手段,把每層神經(jīng)網(wǎng)絡(luò)任意神經(jīng)元這個輸入值的分布強(qiáng)行拉回到均值0方差1的標(biāo)準(zhǔn)正態(tài)分布,使得激活輸入值落入非線性函數(shù)中比較敏感的區(qū)域。可以讓梯度變大,學(xué)習(xí)收斂速度快,能大大加快收斂速度。

?

總結(jié)

以上是生活随笔為你收集整理的dropout+Batch Normalization理解的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。