當(dāng)前位置:
首頁 >
吴恩达机器学习笔记:(二)代价函数
發(fā)布時(shí)間:2025/3/20
37
豆豆
生活随笔
收集整理的這篇文章主要介紹了
吴恩达机器学习笔记:(二)代价函数
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
代價(jià)函數(shù)
本例中如下圖所示:代價(jià)函數(shù)實(shí)際目的是為了通過尋找 θ1, θ2兩個(gè)參數(shù)實(shí)現(xiàn)擬合的直線最接近數(shù)據(jù)點(diǎn)。
本例中代價(jià)函數(shù)的定義 θ1, θ2
尋找θ1,θ2參數(shù)最優(yōu)值
尋找 θ1的最優(yōu)解
當(dāng)θ1 = 1時(shí)
當(dāng)θ1 = 0.5時(shí)
當(dāng)θ1 =0時(shí)
如上圖右側(cè)所示,尋當(dāng)θ1 的最優(yōu)解相當(dāng)于尋找曲線偏導(dǎo)數(shù)等于零的點(diǎn)
上圖為兩個(gè)參數(shù)同時(shí)作用時(shí)候生成的數(shù)據(jù)三維圖
下圖為數(shù)據(jù)對應(yīng)的等高線:
通過實(shí)際數(shù)據(jù)測試發(fā)現(xiàn)當(dāng)在等高線最中央時(shí)擬合的直線最接近數(shù)據(jù)集。
總結(jié)
以上是生活随笔為你收集整理的吴恩达机器学习笔记:(二)代价函数的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 吴恩达机器学习笔记:(一)机器学习方法简
- 下一篇: 吴恩达机器学习笔记:(三)梯度下降法