tf.nn.dropout
轉(zhuǎn)自:https://blog.csdn.net/huahuazhu/article/details/73649389
tf.nn.dropout是TensorFlow里面為了防止或減輕過擬合而使用的函數(shù),它一般用在全連接層。
Dropout就是在不同的訓(xùn)練過程中隨機(jī)扔掉一部分神經(jīng)元。也就是讓某個(gè)神經(jīng)元的激活值以一定的概率p,讓其停止工作,這次訓(xùn)練過程中不更新權(quán)值,也不參加神經(jīng)網(wǎng)絡(luò)的計(jì)算。但是它的權(quán)重得保留下來(只是暫時(shí)不更新而已),因?yàn)橄麓螛颖据斎霑r(shí)它可能又得工作了。
但在測(cè)試及驗(yàn)證中:每個(gè)神經(jīng)元都要參加運(yùn)算,但其輸出要乘以概率p。
函數(shù)說明:
tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None,name=None)?上面方法中常用的是前兩個(gè)參數(shù):
第一個(gè)參數(shù)x:輸入
第二個(gè)參數(shù)keep_prob: 設(shè)置神經(jīng)元被選中的概率,在初始化時(shí)keep_prob是一個(gè)占位符, ?keep_prob?=?tf.placeholder(tf.float32)?。tensorflow在run時(shí)設(shè)置keep_prob具體的值,例如keep_prob: 0.5
第五個(gè)參數(shù)name:指定該操作的名字。
?
總結(jié)
以上是生活随笔為你收集整理的tf.nn.dropout的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: JavaSE——类集(上)(Collec
- 下一篇: OpenCV中的函数子