吴恩达深度学习课程
?
神經(jīng)網(wǎng)絡(luò)
深度學(xué)習(xí)是指訓(xùn)練神經(jīng)網(wǎng)絡(luò),size--○--prise,圓圈為一個神經(jīng)單元。
它做的就是函數(shù)的主要功能。常見的“修正線性單元”即為ReLU。
?
把獨立的單元疊加起來,就有了一張較大的神經(jīng)網(wǎng)絡(luò)。
1.2監(jiān)督學(xué)習(xí)
對于圖像中常用卷積神經(jīng)網(wǎng)絡(luò)(CNN)
對于序列數(shù)據(jù)常用循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
?
語言也是序列數(shù)據(jù)但是是單個出現(xiàn),用(RNNs)
雷達(dá)等要用更復(fù)雜的,混合神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
?
結(jié)構(gòu)化數(shù)據(jù)
是數(shù)據(jù)的數(shù)據(jù)庫
?
非結(jié)構(gòu)化數(shù)據(jù)
類似音頻信號和圖像
?
訓(xùn)練集的規(guī)模/訓(xùn)練樣本的數(shù)量(m);
深度學(xué)習(xí)的擴展是數(shù)據(jù)和計算能力規(guī)模的進(jìn)展,大多數(shù)算法的創(chuàng)新是為了讓神經(jīng)網(wǎng)絡(luò)運行的更快。計算速度的提升,可以幫助提高迭代速度。
?
神經(jīng)網(wǎng)絡(luò)的編程基礎(chǔ)
logistic回歸
是一個用于二分分類的算法。是一個學(xué)習(xí)算法,用在監(jiān)督學(xué)習(xí)問題中。
X.shape是一條Python命令,用來輸出矩陣的維度(nx,m),表示X是一個nx×m的矩陣。
好的慣例符號能將不同訓(xùn)練樣本的數(shù)據(jù)聯(lián)系起來。
?
符號說明:
?
維度相關(guān):
?m :數(shù)據(jù)集中訓(xùn)練集的數(shù)量。
?L :神經(jīng)網(wǎng)絡(luò)中的層數(shù),上圖 L =3.
?l :第層的神經(jīng)網(wǎng)絡(luò)。
?nz :輸入數(shù)據(jù)的維度,上圖 Tr =3。
?Ty :輸出數(shù)據(jù)的維度,通常就是分類問題中的類標(biāo)簽的數(shù)量。
?n ,:第 l 層的隱藏單元的數(shù)量,如上圖第二層中 n ,=3.
數(shù)據(jù)相關(guān):
?X € RPXm :這是輸入數(shù)據(jù)的矩陣,它的維度是( Tr , m )。
?e E R ':第 i 個數(shù)據(jù),一般是一個列向量,它的維度是(1, nz ). YE RyXm :標(biāo)簽矩陣,它的維度是( Ty , m ).
?y € R :第 i 個數(shù)據(jù)對應(yīng)的標(biāo)簽,一般是一個整數(shù)值。
w4:第層的權(quán)重矩陣,其維度是( n ,, n ,7リ).
64:第 l 層的偏差向量,是個列向量,其維度是(1, n ,).
?y € R ":預(yù)測的輸出向量,列向量,它維度是(1, ny ).
總結(jié)
- 上一篇: CSDN:如何获得C币
- 下一篇: 梳理百年深度学习发展史-七月在线机器学习