吴恩达机器学习系列课程--个人笔记
網(wǎng)址:https://www.bilibili.com/video/av50747658/ (b站找的有中文字幕的視頻)
第一周
一、引言
1.1 歡迎
1.2 機(jī)器學(xué)習(xí)是什么
1.3 監(jiān)督學(xué)習(xí)
1.4 無監(jiān)督學(xué)習(xí)
二、單變量線性回歸
2.1 模型表示
2.2 代價(jià)函數(shù)
2.3 代價(jià)函數(shù)的直觀理解 I
2.4 代價(jià)函數(shù)的直觀理解 II
2.5 梯度下降
2.6 梯度下降的直觀理解
2.7 梯度下降的線性回歸
2.8 接下來的內(nèi)容
三、線性代數(shù)回顧
3.1 矩陣和向量
3.2 加法和標(biāo)量乘法
3.3 矩陣向量乘法
3.4 矩陣乘法
3-5 矩陣乘法特征
(1)矩陣乘法不適用交換律
(2)矩陣乘法滿足結(jié)合律
(3)單位矩陣是對角線(a11,a22,a33...)都等于1的矩陣
3-6 逆和轉(zhuǎn)置
(1)逆矩陣
只有m*m的矩陣有逆矩陣
I是單位矩陣
(2)轉(zhuǎn)置
aij的矩陣,變成aji
?
第2周
四、多變量線性回歸
4-1 多功能
當(dāng)用多個(gè)參數(shù)預(yù)測房價(jià)時(shí),需使用多元線性回歸,向量表示為:
4-2 多元梯度下降法
4-3 梯度下降法實(shí)踐 1-特征縮放
4-4 梯度下降法實(shí)踐 2-學(xué)習(xí)率
4-5 特征和多項(xiàng)式回歸
4-6 正規(guī)方程
4-7 正規(guī)方程及不可逆性(可選)
?
五、Octave教程
5-1 基本操作
~= 表示 邏輯不等于
5-2 移動數(shù)據(jù)
5-3 計(jì)算數(shù)據(jù)
5-4 數(shù)據(jù)繪制
5-5 控制語句:for while if 語句
5-6 矢量(沒太看懂)
?第三周
六、邏輯回歸
6-1 分類
邏輯回歸算法(logistics regression)——邏輯回歸算法是個(gè)分類算法,它適用于y值取離散值得情況。
二元分類(0,1分類)
6-2 假設(shè)陳述
6-3 決策界限
6-4 代價(jià)函數(shù)
6-5 簡化代價(jià)函數(shù)與梯度下降
6-6 高級優(yōu)化
學(xué)完本章需要實(shí)現(xiàn):寫一個(gè)函數(shù),它能返回代價(jià)函數(shù)值、梯度值,因此要把這個(gè)應(yīng)用到邏輯回歸或者甚至線性回歸中,你也可以把這些優(yōu)化算法用于線性回歸,你需要做的就是輸入合適的代碼來計(jì)算這里的這些東西。
6-7 多元分類——一對多
y值是多個(gè)分類值
?
七、正則化
7-1 過擬合問題
什么是過擬合
正則化
7-2 代價(jià)函數(shù)
7-3 線性回歸的正則化
7-4 邏輯回歸的正則化
?
---------------------------------------
?
目前大家對機(jī)器學(xué)習(xí)算法可能還只是略懂,但是一旦你精通了線性回歸、高級優(yōu)化算法 和正則化技術(shù),坦率地說,你對機(jī)器學(xué)習(xí)的理解可能已經(jīng)比許多工程師深入了。現(xiàn)在,你已 經(jīng)有了豐富的機(jī)器學(xué)習(xí)知識,目測比那些硅谷工程師還厲害,或者用機(jī)器學(xué)習(xí)算法來做產(chǎn)品。 接下來的課程中,我們將學(xué)習(xí)一個(gè)非常強(qiáng)大的非線性分類器,無論是線性回歸問題,還 是邏輯回歸問題,都可以構(gòu)造多項(xiàng)式來解決。你將逐漸發(fā)現(xiàn)還有更強(qiáng)大的非線性分類器,可 以用來解決多項(xiàng)式回歸問題。我們接下來將將學(xué)會,比現(xiàn)在解決問題的方法強(qiáng)大 N 倍的學(xué) 習(xí)算法。?第四周
八、神經(jīng)網(wǎng)絡(luò):表述
8-1 非線性假設(shè)
8-2 神經(jīng)元與大腦
8-3 模型展示I
8-4 模型展示II
8-5 例子與直覺理解I
8-6 例子與直覺理解II
8-7 多元分類
9-1 代價(jià)函數(shù)
9-2 反向傳播算法
9-3 理解反向傳播算法
9-4 使用注意:展開參數(shù)
9-5 梯度檢測
9-6 隨機(jī)初始化
9-7 組合到一起
9-8 無人駕駛
10-1 決定下一步做什么
?10-2 評估假設(shè)
10-3 模型選擇和訓(xùn)練、測試、驗(yàn)證集
60% 20% 20% 劃分這三個(gè)集合(常用)
10-4 診斷偏差與方差
10-5 正則化和方差、偏差
10-6 學(xué)習(xí)曲線
10-7 決定接下來要做什么
11-1 確定執(zhí)行的優(yōu)先級
11-2 誤差分析
11-3 不對稱性分類的誤差評估
11-4 精確度和召回率的權(quán)衡
11-5 機(jī)器學(xué)習(xí)數(shù)據(jù)
12-1 優(yōu)化目標(biāo)
12-2 直觀上對大間隔的理解
12-3 大間隔分類器的數(shù)學(xué)原理
12-4 核函數(shù)1
12-5 核函數(shù)2
12-6 使用SVM
13-1 無監(jiān)督學(xué)習(xí)
聚類
13-2 K-Means算法
13-3 優(yōu)化目標(biāo)
13-4 隨機(jī)初始化
13-5- 選取聚類數(shù)量
14-1 目標(biāo)I:數(shù)據(jù)壓縮
14-2 目標(biāo)II:可視化
14-3 主成分分析問題規(guī)劃1
14-4 主成分分析問題規(guī)劃2
14-5 主成分?jǐn)?shù)量選擇
14-6 壓縮重現(xiàn)
14-7 應(yīng)用PCA的建議
15-1 問題動機(jī)
15-2 高斯分布(正態(tài)分布)
15-3 算法
15-4 開發(fā)和評估異常檢測系統(tǒng)
15-5 異常檢測 VS 監(jiān)督學(xué)習(xí)
當(dāng)正樣本過少,負(fù)樣本較多的時(shí)候,使用異常檢測,算法可以從負(fù)樣本中學(xué)到足夠多的特征
反之,負(fù)樣本過少的時(shí)候,用監(jiān)督學(xué)習(xí)
15-6 選擇要使用的功能
15-7 多變量高斯分布
15-8 使用多變量高斯分布的異常檢測
16-1 問題規(guī)劃
推薦系統(tǒng)
16-2 基于內(nèi)容的推薦算法
16-3 協(xié)同過濾
16-4 協(xié)同過濾算法
16-5 矢量化:低秩矩陣分解
16-6 實(shí)施細(xì)節(jié):均值規(guī)范化
17-1 學(xué)習(xí)大數(shù)據(jù)集
17-2 隨機(jī)梯度下降
17-3 Mini-Batch 梯度下降
17-4 隨機(jī)梯度下降收斂
17-5 在線學(xué)習(xí)
17-6 減少映射與數(shù)據(jù)并行
18-1 問題描述與OCR.pipeline
?圖像識別
18-2 滑動窗口
使用滑動窗口檢測器找出圖片中的行人
18-3 獲取大量數(shù)據(jù)和人工數(shù)據(jù)
18-4 天花板分析:下一步工作的pipeline
19-1 總結(jié)與感謝
轉(zhuǎn)載于:https://www.cnblogs.com/xitingxie/p/10875880.html
總結(jié)
以上是生活随笔為你收集整理的吴恩达机器学习系列课程--个人笔记的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ubuntu apt-mirror 同步
- 下一篇: 让你受用一辈子的181句话