日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习算法(优化)之一:梯度下降算法、随机梯度下降(应用于线性回归、Logistic回归等等)...

發布時間:2025/3/21 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习算法(优化)之一:梯度下降算法、随机梯度下降(应用于线性回归、Logistic回归等等)... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文介紹了機器學習中基本的優化算法—梯度下降算法和隨機梯度下降算法,以及實際應用到線性回歸、Logistic回歸、矩陣分解推薦算法等ML中。

梯度下降算法基本公式

常見的符號說明和損失函數

X?:所有樣本的特征向量組成的矩陣?
x(i)?是第i個樣本包含的所有特征組成的向量x(i)=x(i)1,x(i)2...,x(i)n?
y(i)?第i個樣本的label,每個樣本只有一個label,y(i)是標量(一個數值)?
hθ(x(i))?:擬合函數,機器學習中可以用多種類型的擬合函數?
θ?是函數變量,是多個變量的向量?θ=[θ1,θ2,...]?
|hθ(xi)?y(i)|?:擬合絕對誤差?
求解的目標是使得所有樣本點(m個)平均誤差最小,即:

或者平方誤差最小,即:?

argmin表示使目標函數取最小值時的變量值(即θ)值。

都被稱為損失函數(Cost Function)?
J(θ)不只是上面兩種形式,不同的機器學習算法可以定義各種其它形式。

梯度下降迭代公式

為了求解θ=[θ1,θ2,...]的值,可以先對其賦一組初值,然后改變θ的值,使得J(θ)最小。函數J(θ)在其負梯度方向下降最快,所以只要使得每個參數θ按函數負梯度方向改變,則J(θ)能最快找到最小值。即?

這就是梯度下降算法的迭代公式,其中α表示步長,即往每次下降最快的方向走多遠。

線性回歸

以多變量線性回歸為例:?
擬合函數如下:?

Logistic回歸

代價函數:?
以Sigmoid函數(Logistic函數)為例說明:?

為什么這么定義代價函數呢?我自己通俗理解是,求導后形式簡潔,而且:?
y=0,hθ(x)范圍為[0,0.5),越接近0.5,代價越高:?
?
由上圖可以看出:?log(1?hθ(x(i)))可以很好衡量某一個樣本的代價。

?

y=1時,hθ(x)范圍為(0.5,1],越接近0.5,代價越高:?
?
同樣由上圖可以看到:?loghθ(x(i))可以很好衡量某一個樣本的代價。

迭代更新公式:?
求導過程蠻復雜的,直接給出結果吧:?

和線性回歸中最后給的更新迭代公式是一模一樣的,這也就理解了為什么代價函數設計時比較復雜,還套了log,敢情是為了這???
總之logisitc回歸和線性回歸最終使用的是一模一樣的優化算法。?
還可將這個公式寫成用向量來表達的形式:?

矩陣分解的推薦算法

可以參考我轉載的另一篇文章:?
http://www.cnblogs.com/kobedeshow/p/3651833.html?utm_source=tuicool&utm_medium=referral

隨機梯度下降(SGD)

stochastic gradient descent

從梯度上升算法公式可以看出,每次更新回歸系數θ時都需要遍歷整個數據集。該方法在處理100個左右的數據集尚可,但是如果有數十億的樣本和成千萬的特征,這種方法的計算復雜度就太高了。一種改進的方法是一次僅用一個樣本點來更新回歸系數。由于可以在新樣本到來時,對分類器進行增量更新,因此是一個“在線學習”算法,而梯度下降算法一次處理所有的數據被稱為“批處理”。更新公式如下:?

參考文獻

(1)Stanford機器學習—第三講. 邏輯回歸和過擬合問題的解決 logistic Regression & Regularization?
http://blog.csdn.net/abcjennifer/article/details/7716281?locationNum=2?
(2)機器學習入門:線性回歸及梯度下降?
http://blog.csdn.net/xiazdong/article/details/7950084?
(3)梯度下降深入淺出?
http://binhua.info/machinelearning/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B7%B1%E5%85%A5%E6%B5%85%E5%87%BA

?

轉載于:https://www.cnblogs.com/itboys/p/8391130.html

總結

以上是生活随笔為你收集整理的机器学习算法(优化)之一:梯度下降算法、随机梯度下降(应用于线性回归、Logistic回归等等)...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。