吴恩达深度学习
目錄
- 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)
- Python 中的廣播
- 關(guān)于 python _ numpy 向量的說(shuō)明
- 淺層神經(jīng)網(wǎng)絡(luò)
- 神經(jīng)網(wǎng)絡(luò)概述
- 神經(jīng)網(wǎng)絡(luò)表示
- 計(jì)算一個(gè)神經(jīng)網(wǎng)絡(luò)的輸出
- 多樣本向量化
- 向量化實(shí)現(xiàn)的解釋
- 激活函數(shù)
- 為什么需要非線(xiàn)性激活函數(shù)
- 激活函數(shù)的導(dǎo)數(shù)
- 神經(jīng)網(wǎng)絡(luò)的梯度下降
- 直觀(guān)理解反向傳播
- 隨機(jī)初始化
- 深層神經(jīng)網(wǎng)絡(luò)
- 深層神經(jīng)網(wǎng)絡(luò)
- 前向傳播和反向傳播
- 深層網(wǎng)絡(luò)中的前向傳播
- 核對(duì)矩陣的維數(shù)
- 為什么實(shí)用深層表示?
- 搭建神經(jīng)網(wǎng)絡(luò)塊
- 深度學(xué)習(xí)和大腦的關(guān)聯(lián)性
- 深度學(xué)習(xí)的實(shí)踐層面
- 訓(xùn)練,驗(yàn)證,測(cè)試集
- 偏差,方差
- 機(jī)器學(xué)習(xí)基礎(chǔ)
- 正則化
- 為什么正則化有利于預(yù)防過(guò)擬合?
- dropout正則化
- 理解dropout
- 其他正則化方法
- 歸一化輸入
- 梯度爆炸/梯度消失
- 神經(jīng)網(wǎng)絡(luò)的權(quán)重初始化
- 梯度的數(shù)值逼近
- 梯度檢驗(yàn)
- 梯度檢驗(yàn)應(yīng)用的注意事項(xiàng)
神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)
Python 中的廣播
乘法的廣播機(jī)制需要維度一致,起碼是有行或者列是一致(暫時(shí)是這樣理解的)
關(guān)于 python _ numpy 向量的說(shuō)明
淺層神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)概述
神經(jīng)網(wǎng)絡(luò)表示
計(jì)算一個(gè)神經(jīng)網(wǎng)絡(luò)的輸出
多樣本向量化
向量化實(shí)現(xiàn)的解釋
激活函數(shù)
為什么需要非線(xiàn)性激活函數(shù)
激活函數(shù)的導(dǎo)數(shù)
神經(jīng)網(wǎng)絡(luò)的梯度下降
正向傳播:指對(duì)神經(jīng)網(wǎng)絡(luò)沿著從輸入層到輸出層的順序,依次計(jì)算并存儲(chǔ)模型的中間變量(包括輸出),反向傳播剛好相反
直觀(guān)理解反向傳播
隨機(jī)初始化
深層神經(jīng)網(wǎng)絡(luò)
深層神經(jīng)網(wǎng)絡(luò)
前向傳播和反向傳播
深層網(wǎng)絡(luò)中的前向傳播
核對(duì)矩陣的維數(shù)
為什么實(shí)用深層表示?
搭建神經(jīng)網(wǎng)絡(luò)塊
深度學(xué)習(xí)和大腦的關(guān)聯(lián)性
深度學(xué)習(xí)的實(shí)踐層面
訓(xùn)練,驗(yàn)證,測(cè)試集
偏差,方差
機(jī)器學(xué)習(xí)基礎(chǔ)
正則化
為什么正則化有利于預(yù)防過(guò)擬合?
dropout正則化
理解dropout
其他正則化方法
歸一化輸入
梯度爆炸/梯度消失
神經(jīng)網(wǎng)絡(luò)的權(quán)重初始化
梯度的數(shù)值逼近
梯度檢驗(yàn)
梯度檢驗(yàn)應(yīng)用的注意事項(xiàng)
總結(jié)
- 上一篇: 动态规划矩阵连乘问题
- 下一篇: 梳理百年深度学习发展史-七月在线机器学习