當(dāng)前位置:
首頁 >
Stanford UFLDL教程 微调多层自编码算法
發(fā)布時(shí)間:2025/3/21
21
豆豆
生活随笔
收集整理的這篇文章主要介紹了
Stanford UFLDL教程 微调多层自编码算法
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
微調(diào)多層自編碼算法
Contents[hide]
|
介紹
微調(diào)是深度學(xué)習(xí)中的常用策略,可以大幅提升一個(gè)棧式自編碼神經(jīng)網(wǎng)絡(luò)的性能表現(xiàn)。從更高的視角來講,微調(diào)將棧式自編碼神經(jīng)網(wǎng)絡(luò)的所有層視為一個(gè)模型,這樣在每次迭代中,網(wǎng)絡(luò)中所有的權(quán)重值都可以被優(yōu)化。
一般策略
幸運(yùn)的是,實(shí)施微調(diào)棧式自編碼神經(jīng)網(wǎng)絡(luò)所需的工具都已齊備!為了在每次迭代中計(jì)算所有層的梯度,我們需要使用稀疏自動(dòng)編碼一節(jié)中討論的反向傳播算法。因?yàn)榉聪騻鞑ニ惴梢匝由鞈?yīng)用到任意多層,所以事實(shí)上,該算法對(duì)任意多層的棧式自編碼神經(jīng)網(wǎng)絡(luò)都適用。
使用反向傳播法進(jìn)行微調(diào)
為方便讀者,以下我們簡(jiǎn)要描述如何實(shí)施反向傳播算法:
注:我們可以認(rèn)為輸出層softmax分類器是附加上的一層,但是其求導(dǎo)過程需要單獨(dú)處理。具體地說,網(wǎng)絡(luò)“最后一層”的特征會(huì)進(jìn)入softmax分類器。所以,第二步中的導(dǎo)數(shù)由 計(jì)算,其中。
中英文對(duì)照
總結(jié)
以上是生活随笔為你收集整理的Stanford UFLDL教程 微调多层自编码算法的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Day 26: TogetherJS —
- 下一篇: Stanford UFLDL教程 线性解