第5章 线性回归算法
生活随笔
收集整理的這篇文章主要介紹了
第5章 线性回归算法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1.解決回歸問題
2.思想簡單,實現容易
3.許多強大的非線性模型的基礎
4.結果具有很好的可解釋性
5.蘊含機器學習中的很多重要思想
所謂的建模的過程,其實就是找到一個模型最大程度的擬合我們的數據。在線性回歸算法中,這個模型就是一個直線方程,所謂的最大擬合我們的數據,其實本質是找到一個函數 ,在這里我們稱這個函數叫做損失函數,就是loss?function,也就是我們的這個模型沒有擬合樣本的這一部分,就是損失的這一部分;有的算法中度量的是擬合的程度,在這種情況下稱這個函數為效用函數(utility?function)。統稱它們為目標函數。
注意:分類問題
?
?
?
?
?
?
?損失函數:度量出沒有擬合出樣本的部分
效用函數:度量是擬合的程度
?參數學習的算法都是這樣的一個套路。參數學習算法就是要創建一個模型,而機器學習的任務就是要學習這些模型的參數!《最優化原理》
?導數等于0的地方就是函數極值的地方。
?
?
?
?
?
多元線性回歸
?
?
?
?
?
?
?
?
總結
以上是生活随笔為你收集整理的第5章 线性回归算法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 第4章 最基础的分类算法-k近邻算法
- 下一篇: 第6章 梯度下降法