tensorflow随笔-正则化与指数衰减率
指數衰減率
先用較大的學習率快速迭代,得到一個較優的解。然后,指數衰減法生效,隨著迭代的繼續逐步減少學習率,這樣,可以得到更穩定的解。
decayed_learning_rate=learning_rate*decay_rate^(global_step/decay_steps)
decay_rate衰減系數
decay_steps衰減速度
當staircase為True,則global_step/decay_steps為整數(學習率下降階梯),否則為浮點數(學習率下降平滑)。
globalStep=tf.Variable(0)
learningRate=tf.train.exponential_decay(0.1,globalStep,100,0.96,staircase=True)
learningStep=tf.train.GradientDescentOptimizer(learningRate).minimize(losss,global_step=globalStep)
正則化
正則化可避免過擬合,模型的復雜程度,由神經網絡的所有參數決定,w和b,一般是由權重w決定。
1.L1正則化
L1:
L2:
L1使參數變得稀疏,很多參數會為0,這樣,可以達到類似特征提取的作用。L1不可導。
L2公式可導,所以對其優化更簡潔,但其沒有稀疏作用。
可將2個正則化一起使用
總結
以上是生活随笔為你收集整理的tensorflow随笔-正则化与指数衰减率的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: java 图像梯度检测_数字图像处理-边
- 下一篇: java dos 菜单栏_学习java之