當(dāng)前位置:
首頁 >
1.4 正规方程-机器学习笔记-斯坦福吴恩达教授
發(fā)布時(shí)間:2025/4/5
48
豆豆
生活随笔
收集整理的這篇文章主要介紹了
1.4 正规方程-机器学习笔记-斯坦福吴恩达教授
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
正規(guī)方程(Normal Equation)
定義
前面論述的線性回歸問題中,我們通過梯度下降法來求得 J(θ)J(θ)J(θ) 的最小值,但是對于學(xué)習(xí)率 ααα 的調(diào)節(jié)有時(shí)候使得我們非常惱火。為此,我們可通過正規(guī)方程來最小化 J(θ)J(θ)J(θ) :
θ=(XTX)?1XTyθ=(X^TX)^{?1}X^Tyθ=(XTX)?1XTy
其中, XXX 為輸入向量矩陣,第 0 個(gè)特征表示偏置(x0=1)( x_0=1 )(x0?=1), yyy 為目標(biāo)向量,僅從該表達(dá)式形式上看,我們也脫離了學(xué)習(xí)率 ααα 的束縛。
正規(guī)方程的推導(dǎo)過程省略了,斯坦福公開課上給出了完整的推導(dǎo)過程。
梯度下降與正規(guī)方程的對比
| 需要選擇適當(dāng)?shù)膶W(xué)習(xí)率 ααα | 不要學(xué)習(xí)率 ααα |
| 需要進(jìn)行多步迭代 | 不需要進(jìn)行迭代,在 Matlab 等平臺(tái)上,矩陣運(yùn)算僅需一行代碼就可完成 |
| 對多特征適應(yīng)性較好,能在特征數(shù)量很多時(shí)仍然工作良好 | 算法復(fù)雜度為 O(n3)O(n^3)O(n3) ,所以如果特征維度太高(特別是超過 10000 維),那么不宜再考慮該方法。 |
| 能應(yīng)用到一些更加復(fù)雜的算法中,如邏輯回歸(Logic Regression)等 | 矩陣需要可逆,并且,對于一些更復(fù)雜的算法,該方法無法工作 |
總結(jié)
以上是生活随笔為你收集整理的1.4 正规方程-机器学习笔记-斯坦福吴恩达教授的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 1.3 程序示例--梯度下降-机器学习笔
- 下一篇: 1.5 特征缩放-机器学习笔记-斯坦福吴