机器学习入门(14)— 神经网络学习整体流程、误差反向传播代码实现、误差反向传播梯度确认、误差反向传播使用示例
生活随笔
收集整理的這篇文章主要介紹了
机器学习入门(14)— 神经网络学习整体流程、误差反向传播代码实现、误差反向传播梯度确认、误差反向传播使用示例
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
1. 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)整體流程
神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的步驟如下所示。
- 前提
神經(jīng)網(wǎng)絡(luò)中有合適的權(quán)重和偏置,調(diào)整權(quán)重和偏置以便擬合訓(xùn)練數(shù)據(jù)的過(guò)程稱為學(xué)習(xí)。神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)分為下面 4 個(gè)步驟。 - 步驟1(mini-batch)
從訓(xùn)練數(shù)據(jù)中隨機(jī)選擇一部分?jǐn)?shù)據(jù)。 - 步驟2(計(jì)算梯度)
計(jì)算損失函數(shù)關(guān)于各個(gè)權(quán)重參數(shù)的梯度。 - 步驟3(更新參數(shù))
將權(quán)重參數(shù)沿梯度方向進(jìn)行微小的更新。 - 步驟4(重復(fù))
重復(fù)步驟1、步驟2、步驟3。
之前介紹的誤差反向傳播法會(huì)在步驟2 中出現(xiàn)。我們可以利用數(shù)值微分求得了這個(gè)梯度。數(shù)值微分雖然實(shí)現(xiàn)簡(jiǎn)單,但是計(jì)算要耗費(fèi)較多的時(shí)間。和需要花費(fèi)較多時(shí)間的數(shù)值微分不同,誤差反向傳播法可以快速高效地計(jì)算梯度。
2. 誤差反向傳播代碼實(shí)現(xiàn)
3. 誤差反向傳播梯度確認(rèn)
4. 誤差反向傳播使用示例
總結(jié)
以上是生活随笔為你收集整理的机器学习入门(14)— 神经网络学习整体流程、误差反向传播代码实现、误差反向传播梯度确认、误差反向传播使用示例的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 晶珠景天祛斑胶囊产品是否真的能去斑
- 下一篇: 机器学习入门(15)— 全连接层与卷积层