日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

吴恩达机器学习系列课程--个人笔记

發(fā)布時(shí)間:2024/9/5 59 豆豆
生活随笔 收集整理的這篇文章主要介紹了 吴恩达机器学习系列课程--个人笔记 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

網(wǎng)址:https://www.bilibili.com/video/av50747658/ (b站找的有中文字幕的視頻)

第一周

一、引言

1.1 歡迎

1.2 機(jī)器學(xué)習(xí)是什么

1.3 監(jiān)督學(xué)習(xí)

1.4 無監(jiān)督學(xué)習(xí)

二、單變量線性回歸

2.1 模型表示

2.2 代價(jià)函數(shù)

2.3 代價(jià)函數(shù)的直觀理解 I

2.4 代價(jià)函數(shù)的直觀理解 II

2.5 梯度下降

2.6 梯度下降的直觀理解

2.7 梯度下降的線性回歸

2.8 接下來的內(nèi)容

三、線性代數(shù)回顧

3.1 矩陣和向量

3.2 加法和標(biāo)量乘法

3.3 矩陣向量乘法

3.4 矩陣乘法

3-5 矩陣乘法特征

(1)矩陣乘法不適用交換律

(2)矩陣乘法滿足結(jié)合律

(3)單位矩陣是對角線(a11,a22,a33...)都等于1的矩陣

3-6 逆和轉(zhuǎn)置

(1)逆矩陣

只有m*m的矩陣有逆矩陣

I是單位矩陣

(2)轉(zhuǎn)置

aij的矩陣,變成aji

?

第2周

四、多變量線性回歸

4-1 多功能

當(dāng)用多個(gè)參數(shù)預(yù)測房價(jià)時(shí),需使用多元線性回歸,向量表示為:

4-2 多元梯度下降法

4-3 梯度下降法實(shí)踐 1-特征縮放

4-4 梯度下降法實(shí)踐 2-學(xué)習(xí)率

4-5 特征和多項(xiàng)式回歸

4-6 正規(guī)方程

4-7 正規(guī)方程及不可逆性(可選)

?

五、Octave教程

5-1 基本操作

~= 表示 邏輯不等于

5-2 移動數(shù)據(jù)

5-3 計(jì)算數(shù)據(jù)

5-4 數(shù)據(jù)繪制

5-5 控制語句:for while if 語句

5-6 矢量(沒太看懂)

?第三周

六、邏輯回歸

6-1 分類

邏輯回歸算法(logistics regression)——邏輯回歸算法是個(gè)分類算法,它適用于y值取離散值得情況。

二元分類(0,1分類)

6-2 假設(shè)陳述

6-3 決策界限

6-4 代價(jià)函數(shù)

6-5 簡化代價(jià)函數(shù)與梯度下降

6-6 高級優(yōu)化

學(xué)完本章需要實(shí)現(xiàn):寫一個(gè)函數(shù),它能返回代價(jià)函數(shù)值、梯度值,因此要把這個(gè)應(yīng)用到邏輯回歸或者甚至線性回歸中,你也可以把這些優(yōu)化算法用于線性回歸,你需要做的就是輸入合適的代碼來計(jì)算這里的這些東西。

6-7 多元分類——一對多

y值是多個(gè)分類值

?

七、正則化

7-1 過擬合問題

什么是過擬合

正則化

7-2 代價(jià)函數(shù)

7-3 線性回歸的正則化

7-4 邏輯回歸的正則化

?

---------------------------------------

?

目前大家對機(jī)器學(xué)習(xí)算法可能還只是略懂,但是一旦你精通了線性回歸、高級優(yōu)化算法 和正則化技術(shù),坦率地說,你對機(jī)器學(xué)習(xí)的理解可能已經(jīng)比許多工程師深入了。現(xiàn)在,你已 經(jīng)有了豐富的機(jī)器學(xué)習(xí)知識,目測比那些硅谷工程師還厲害,或者用機(jī)器學(xué)習(xí)算法來做產(chǎn)品。 接下來的課程中,我們將學(xué)習(xí)一個(gè)非常強(qiáng)大的非線性分類器,無論是線性回歸問題,還 是邏輯回歸問題,都可以構(gòu)造多項(xiàng)式來解決。你將逐漸發(fā)現(xiàn)還有更強(qiáng)大的非線性分類器,可 以用來解決多項(xiàng)式回歸問題。我們接下來將將學(xué)會,比現(xiàn)在解決問題的方法強(qiáng)大 N 倍的學(xué) 習(xí)算法。

?第四周

八、神經(jīng)網(wǎng)絡(luò):表述

8-1 非線性假設(shè)

8-2 神經(jīng)元與大腦

8-3 模型展示I

8-4 模型展示II

8-5 例子與直覺理解I

8-6 例子與直覺理解II

8-7 多元分類

9-1 代價(jià)函數(shù)

9-2 反向傳播算法

9-3 理解反向傳播算法

9-4 使用注意:展開參數(shù)

9-5 梯度檢測

9-6 隨機(jī)初始化

9-7 組合到一起

9-8 無人駕駛

10-1 決定下一步做什么

?10-2 評估假設(shè)

10-3 模型選擇和訓(xùn)練、測試、驗(yàn)證集

60% 20% 20% 劃分這三個(gè)集合(常用)

10-4 診斷偏差與方差

10-5 正則化和方差、偏差

10-6 學(xué)習(xí)曲線

10-7 決定接下來要做什么

11-1 確定執(zhí)行的優(yōu)先級

11-2 誤差分析

11-3 不對稱性分類的誤差評估

11-4 精確度和召回率的權(quán)衡

11-5 機(jī)器學(xué)習(xí)數(shù)據(jù)  

12-1 優(yōu)化目標(biāo)

12-2 直觀上對大間隔的理解

12-3 大間隔分類器的數(shù)學(xué)原理

12-4 核函數(shù)1

12-5 核函數(shù)2

12-6 使用SVM

13-1 無監(jiān)督學(xué)習(xí)

聚類

13-2 K-Means算法

13-3 優(yōu)化目標(biāo)

13-4 隨機(jī)初始化

13-5- 選取聚類數(shù)量

14-1 目標(biāo)I:數(shù)據(jù)壓縮

14-2 目標(biāo)II:可視化

14-3 主成分分析問題規(guī)劃1

14-4 主成分分析問題規(guī)劃2

14-5 主成分?jǐn)?shù)量選擇

14-6 壓縮重現(xiàn)

14-7 應(yīng)用PCA的建議

15-1 問題動機(jī)

15-2 高斯分布(正態(tài)分布)

15-3 算法

15-4 開發(fā)和評估異常檢測系統(tǒng)

15-5 異常檢測 VS 監(jiān)督學(xué)習(xí)

當(dāng)正樣本過少,負(fù)樣本較多的時(shí)候,使用異常檢測,算法可以從負(fù)樣本中學(xué)到足夠多的特征

反之,負(fù)樣本過少的時(shí)候,用監(jiān)督學(xué)習(xí)

15-6 選擇要使用的功能

15-7 多變量高斯分布

15-8 使用多變量高斯分布的異常檢測

16-1 問題規(guī)劃

推薦系統(tǒng)

16-2 基于內(nèi)容的推薦算法

16-3 協(xié)同過濾

16-4 協(xié)同過濾算法

16-5 矢量化:低秩矩陣分解

16-6 實(shí)施細(xì)節(jié):均值規(guī)范化

17-1 學(xué)習(xí)大數(shù)據(jù)集

17-2 隨機(jī)梯度下降

17-3 Mini-Batch 梯度下降

17-4 隨機(jī)梯度下降收斂

17-5 在線學(xué)習(xí)

17-6 減少映射與數(shù)據(jù)并行

18-1 問題描述與OCR.pipeline

?圖像識別

18-2 滑動窗口

使用滑動窗口檢測器找出圖片中的行人

18-3 獲取大量數(shù)據(jù)和人工數(shù)據(jù)

18-4 天花板分析:下一步工作的pipeline

19-1 總結(jié)與感謝

轉(zhuǎn)載于:https://www.cnblogs.com/xitingxie/p/10875880.html

總結(jié)

以上是生活随笔為你收集整理的吴恩达机器学习系列课程--个人笔记的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。