日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习之——学习率

發布時間:2024/10/12 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习之——学习率 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?

梯度下降法公式:

求??

?

就是找到一個?能夠最小化代價函數J()?

如何確保梯度下降正常工作?如何選擇學習率a (learning rate )? 今天就給大家總結一下學習率有關的知識

當學習率a選擇過大可能出現隨著迭代次數的增加,代價函數J() 越來越大,不會收斂。 這個時候就需要減小學習率。

數據家已經證明:只有學習率足夠小,代價函數就應該隨著迭代次數的增加而減小。

因此如果代價函數沒有下降,一般都是學習率選的太大。但是也不能使學習率選的太小,因為如果太小,那么梯度下降算法可能收斂得比較慢。

總結:(1)如果 學習率a 太小,梯度下降算法可能收斂得比較慢

(2) 如果學習率a太大,梯度下降算法可能不會再每次迭代都下降,甚至不收斂。

通常我嘗試選擇 學習率a: 0.001,0.003,0.01,0.03,0.1,0.3, 1?

選擇一個是梯度下降收斂效果比較好的 學習率a.

?

?

轉載于:https://www.cnblogs.com/gylhaut/p/9382662.html

總結

以上是生活随笔為你收集整理的机器学习之——学习率的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。