斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降
生活随笔
收集整理的這篇文章主要介紹了
斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
(轉載請注明出處:http://blog.csdn.net/buptgshengod)
1.感受
? ? ? ? 這一節課Andrew講的是監督學習應用中的梯度下降方法(Supervised-Learning,grading and descent)。 ? ? ? ? 公式比較多,不過還比較基礎,主要是一些矩陣論的應用。2.筆記 ??
? ? ? Grading and descent 主要用到的就是一個回歸的思路。整體的流程見下圖。? ? ? X1,X2....表示的不同的特征,經過算法H的變化,輸出Y1,Y2......??梢杂霉奖磉_為,X邊上的變量就是我們要回歸得到的系數。 ? ? ?判斷公式。這個ml回歸中常用的判斷公式,當J函數取到最下情況就是我們所需要的結果。 ? ? ?Andrew形容梯度下降好比一個下山問題。我們首先隨機選擇出發點,也就是的取值,然后通過J函數求導,不斷改變的值,得到最終的回歸公式。這就類比于我們一步一步下山,直到山底,值不再變化。 ? ? 梯度下降還有一個特點就是最終的值根據不同的出發點而不同。 ? ??
總結
以上是生活随笔為你收集整理的斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 斯坦福机器学习公开课学习笔记(1)—机器
- 下一篇: 斯坦福机器学习公开课学习笔记(3)—拟合