日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

梯度下降法的三种形式BGD、SGD以及MBGD

發布時間:2025/3/15 编程问答 20 豆豆
生活随笔 收集整理的這篇文章主要介紹了 梯度下降法的三种形式BGD、SGD以及MBGD 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

http://www.cnblogs.com/maybe2030/p/5089753.html

在應用機器學習算法時,我們通常采用梯度下降法來對采用的算法進行訓練。其實,常用的梯度下降法還具體包含有三種不同的形式,它們也各自有著不同的優缺點。

  下面我們以線性回歸算法來對三種梯度下降法進行比較。

  一般線性回歸函數的預測函數為:

? ? ?對應的損失函數形式為:?

1. 批量梯度下降法BGD

批量梯度下降法(Batch Gradient Descent,簡稱BGD)是梯度下降法最原始的形式,它的具體思路是在更新每一參數時都使用所有的樣本來進行更新,其數學形式如下:

(1) 對上述的損失函數求偏導:

(2) 由于是最小化風險函數,所以按照每個參數θ的梯度負方向來更新每個θ

  具體的偽代碼形式為:

  repeat{    

      

        (for every j=0, ... , n)

  }

從上面公式可以注意到,它得到的是一個全局最優解,但是每迭代一步,都要用到訓練集所有的數據,如果樣本數目很大,那么可想而知這種方法的迭代速度!所以,這就引入了另外一種方法,隨機梯度下降

  優點:全局最優解;易于并行實現;

  缺點:當樣本數目很多時,訓練過程會很慢。

2. 隨機梯度下降法SGD

由于批量梯度下降法在更新每一個參數時,都需要所有的訓練樣本,所以訓練過程會隨著樣本數量的加大而變得異常的緩慢。隨機梯度下降法(Stochastic Gradient Descent,簡稱SGD)正是為了解決批量梯度下降法這一弊端而提出的。

  將上面的損失函數寫為如下形式:

? ? 利用每個樣本的損失函數cost對θ求偏導得到對應的梯度,來更新θ:

?

  具體的偽代碼形式為:

  1. Randomly shuffle dataset;

  2.?repeat{

    for i=1, ... ,?mm{

      

?      (for j=0, ... ,?n)

    }

  }

?

  隨機梯度下降是通過每個樣本來迭代更新一次,如果樣本量很大的情況(例如幾十萬),那么可能只用其中幾萬條或者幾千條的樣本,就已經將theta迭代到最優解了,對比上面的批量梯度下降,迭代一次需要用到十幾萬訓練樣本,一次迭代不可能最優,如果迭代10次的話就需要遍歷訓練樣本10次。但是,SGD伴隨的一個問題是噪音較BGD要多,使得SGD并不是每次迭代都向著整體最優化方向。(貪心算法,局部最優解)

SGD is just one type of online learning algorithm. ?There are many other online learning algorithms that may not depend on gradients (e.g. perceptron algorithm, bayesian inference, etc).

  優點:訓練速度快;

  缺點:準確度下降,并不是全局最優;不易于并行實現。

3. 小批量梯度下降法MBGD

有上述的兩種梯度下降法可以看出,其各自均有優缺點,那么能不能在兩種方法的性能之間取得一個折衷呢?即,算法的訓練過程比較快,而且也要保證最終參數訓練的準確率,而這正是小批量梯度下降法(Mini-batch Gradient Descent,簡稱MBGD)的初衷。

  MBGD在每次更新參數時使用b個樣本(b一般為10),其具體的偽代碼形式為:

  Say?b=10, m=1000.

  Repeat{

    for i=1, 11, 21, 31, ... , 991{

    

    (for every j=0, ... ,?n)

    }

  }

?

4. 總結

  Batch gradient descent:?Use all examples in each iteration;

  Stochastic gradient descent:?Use 1 example in each iteration;

  Mini-batch gradient descent:?Use b examples in each iteration.

?

http://www.codelast.com/%E5%8E%9F%E5%88%9B-%E5%86%8D%E8%B0%88-%E6%9C%80%E9%80%9F%E4%B8%8B%E9%99%8D%E6%B3%95%E6%A2%AF%E5%BA%A6%E6%B3%95steepest-descent/ ?這篇博客說明了為什么負梯度方向是下降最快方向以及梯度下降法的優缺點

?


http://www.cnblogs.com/EE-NovRain/p/3810737.html ? 可以參考下

轉載于:https://www.cnblogs.com/ljygoodgoodstudydaydayup/p/5915184.html

總結

以上是生活随笔為你收集整理的梯度下降法的三种形式BGD、SGD以及MBGD的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。