【学习笔记】吴恩达机器学习 WEEK1
Introduction
- 監督學習 Supervised learning
- 無監督學習 Unsupervised learning
- 回歸 regression
map input variables to some continuous function - 分類 classification
map input variables into discrete categories
給算法數據集,要求它找出數據的類型結構
實例:分離音頻
Octave:構建學習算法原型,使用Octave
Linear Regression with One Variable
代價函數 cost function
作用:measure the accuracy of our hypothesis function
J(θ0,θ1)=12m∑i=1m(y^i?yi)2=12m∑i=1m(hθ(xi)?yi)2J\left(\theta_{0}, \theta_{1}\right)=\frac{1}{2 m} \sum_{i=1}^{m}\left(\hat{y}_{i}-y_{i}\right)^{2}=\frac{1}{2 m} \sum_{i=1}^{m}\left(h_{\theta}\left(x_{i}\right)-y_{i}\right)^{2}J(θ0?,θ1?)=2m1?∑i=1m?(y^?i??yi?)2=2m1?∑i=1m?(hθ?(xi?)?yi?)2
也叫做平方誤差函數,或者是均方誤差
代價函數的講解
- hθ(x)h_\theta(x)hθ?(x) :固定參數θ\thetaθ,是xxx的函數
- J(θ)J(\theta)J(θ):是參數θ\thetaθ的函數
- cost function的值越小,對應的擬合越好
梯度下降 Gradient descent
關鍵步驟:更新方程,θ0和θ1\theta_0和\theta_1θ0?和θ1?需要同步更新
θj:=θj?α??θjJ(θ0,θ1)\theta_{j}:=\theta_{j}-\alpha \frac{\partial}{\partial \theta_{j}} J\left(\theta_{0}, \theta_{1}\right)θj?:=θj??α?θj???J(θ0?,θ1?)
斜率會不斷變小,因此步伐會變小,慢慢靠近最后的解
4. Batch梯度下降算法
用梯度下降法,求解代價函數的最小值,得到線性回歸算法,用直線模型來擬合數據
Linear Algebra Review
線性代數知識回顧
矩陣與向量的相乘,簡化計算,避免一個一個的帶入計算。
包含更多信息,一次矩陣乘法就可以實現多種的預測(而且矩陣乘法很高效)
If A is an m×mm\times mm×m matrix,and if it has an inverse,AA?1=A?1A=IAA^{-1}=A^{-1}A=IAA?1=A?1A=I
注意: 1. 方陣 2. 存在逆矩陣
矩陣的第一行變為第一列 Bij=AjiB_{ij}=A_{ji}Bij?=Aji?
總結
以上是生活随笔為你收集整理的【学习笔记】吴恩达机器学习 WEEK1的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【学习笔记】吴恩达机器学习 WEEK 0
- 下一篇: 【学习笔记】吴恩达机器学习 WEEK2