【CV】吴恩达机器学习课程笔记 | 第1-2章
生活随笔
收集整理的這篇文章主要介紹了
【CV】吴恩达机器学习课程笔记 | 第1-2章
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
本系列文章如果沒有特殊說明,正文內容均解釋的是文字上方的圖片
機器學習 | Coursera
吳恩達機器學習系列課程_bilibili
目錄
- 1 介紹
- 1-3 監(jiān)督學習
- 1-4 無監(jiān)督學習
- 2 單變量線性回歸
- 2-2 代價函數
- 2-5 Batch 梯度下降算法
1 介紹
1-3 監(jiān)督學習
- 包括線性回歸和邏輯回歸
1-4 無監(jiān)督學習
- 無監(jiān)督學習不需要給數據打上標簽,也就是不需要人告訴機器一部分正確答案是什么
2 單變量線性回歸
2-2 代價函數
- Hypothesis即假定函數,是線性回歸時機器推測出來的對已經給定的一堆離散點進行擬合之后的函數
- θ0和θ1是待求的參數,求出這兩個參數后,就能得出一條直線進行擬合
- Cost Function即代價函數,是對數據集中每個點與假定函數進行作差再平方再相加后求得的平均值再乘12\frac{1}{2}21?得到的,乘12\frac{1}{2}21?只是為了之后求導方便,式中m為數據集中數據個數共有m個,x(i)x^{(i)}x(i)指的是數據集第i行的x的值,y(i)y^{(i)}y(i)指的是數據集第i行的y的值,y即為需要通過機器學習推測的值
- 目標是求代價函數的最小值(并求出此時θ0和θ1的值),因為在代價函數的值最小時,假定函數距離各離散點的距離最近
由于有兩個參數θ0和θ1,所以得出的代價函數圖形是一個如上圖所示的3D曲面圖
3D曲面圖也可以用上圖的等高線圖表示
2-5 Batch 梯度下降算法
梯度下降算法用于如上圖的函數:在圖上取一個點,向四周尋找最快的下山方向,并邁出一步,重復執(zhí)行上述步驟,就可以找到代價函數的最小值(上圖僅用于解釋梯度下降算法,線性回歸的代價函數永遠是一個凸函數,只會存在一個全局最優(yōu)解,不會像上圖一樣出現局部最優(yōu)解和全局最優(yōu)解)
在這里:=是賦值符號,=是兩邊等價的意思
如上圖,θ0和θ1需要同步更新來實現梯度下降,α是學習率,α越大,相當于下山的步子越大,下山就越快
如上圖,θ1從右側較大時開始逐漸向左側遞減,α是常數不改變,代價函數的導數項(這個導數項其實是偏導數)會隨著代價函數逐漸降低而變小(因為斜率變小了),在到達最小值時,導數會變?yōu)?
將梯度下降式子里的導數項求出后得到上面的式子
總結
以上是生活随笔為你收集整理的【CV】吴恩达机器学习课程笔记 | 第1-2章的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 怎么查找漫画是谁画的呢?
- 下一篇: 【CV】深度学习中Epoch, Batc