日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

1.4 正规方程-机器学习笔记-斯坦福吴恩达教授

發(fā)布時(shí)間:2025/4/5 48 豆豆
生活随笔 收集整理的這篇文章主要介紹了 1.4 正规方程-机器学习笔记-斯坦福吴恩达教授 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

正規(guī)方程(Normal Equation)

定義

前面論述的線性回歸問題中,我們通過梯度下降法來求得 J(θ)J(θ)J(θ) 的最小值,但是對于學(xué)習(xí)率 ααα 的調(diào)節(jié)有時(shí)候使得我們非常惱火。為此,我們可通過正規(guī)方程來最小化 J(θ)J(θ)J(θ)

θ=(XTX)?1XTyθ=(X^TX)^{?1}X^Tyθ=(XTX)?1XTy

其中, XXX 為輸入向量矩陣,第 0 個(gè)特征表示偏置(x0=1)( x_0=1 )x0?=1yyy 為目標(biāo)向量,僅從該表達(dá)式形式上看,我們也脫離了學(xué)習(xí)率 ααα 的束縛。

正規(guī)方程的推導(dǎo)過程省略了,斯坦福公開課上給出了完整的推導(dǎo)過程。

梯度下降與正規(guī)方程的對比

梯度下降正規(guī)方程
需要選擇適當(dāng)?shù)膶W(xué)習(xí)率 ααα不要學(xué)習(xí)率 ααα
需要進(jìn)行多步迭代不需要進(jìn)行迭代,在 Matlab 等平臺(tái)上,矩陣運(yùn)算僅需一行代碼就可完成
對多特征適應(yīng)性較好,能在特征數(shù)量很多時(shí)仍然工作良好算法復(fù)雜度為 O(n3)O(n^3)O(n3) ,所以如果特征維度太高(特別是超過 10000 維),那么不宜再考慮該方法。
能應(yīng)用到一些更加復(fù)雜的算法中,如邏輯回歸(Logic Regression)等矩陣需要可逆,并且,對于一些更復(fù)雜的算法,該方法無法工作

總結(jié)

以上是生活随笔為你收集整理的1.4 正规方程-机器学习笔记-斯坦福吴恩达教授的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。