keras从入门到放弃(十九)RNN和LSTM
生活随笔
收集整理的這篇文章主要介紹了
keras从入门到放弃(十九)RNN和LSTM
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
循環(huán)神經(jīng)網(wǎng)絡(luò),Recurrent Neural Network。神經(jīng)網(wǎng)絡(luò)是一種節(jié)點定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò)。這種網(wǎng)絡(luò)的內(nèi)部狀態(tài)可以展示動態(tài)時序行為。不同于前饋神經(jīng)網(wǎng)絡(luò)的是,RNN可以利用它內(nèi)部的記憶來處理任意時序的輸入序列,這讓它可以更容易處理如不分段的手寫識別、語音識別等。
CNN處理圖片,RNN處理文本,語音和視頻
分類
- 完全遞歸網(wǎng)絡(luò)(Fully recurrent network)
- Hopfield神經(jīng)網(wǎng)絡(luò)(Hopfield network)
- 你簡單循環(huán)網(wǎng)絡(luò)(Simple Recurrent Network, SRN)
- 回聲狀態(tài)網(wǎng)絡(luò)(Echo state network)
- 長短期記憶網(wǎng)絡(luò)(Long Short Term Memery network, LSTM)
- 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bi-directional RNN)
- 持續(xù)型網(wǎng)絡(luò)(Continuous-time RNN)
- 堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)(Stacked Recurrent Neural Network, SRNN)
- 循環(huán)多層感知器(Recurrent Multi-Layer Perceptron,RMLP)
- 遞歸神經(jīng)網(wǎng)絡(luò)(RecursiveNeural Network)
CNN只能單獨的取處理一個個的輸入,前一個輸入和后一個輸入是完全沒有關(guān)系的。但是,某些任務(wù)需要能夠更好的處理序列的信息,即前面的輸入和后面的輸入是有關(guān)系的。
比如,當(dāng)我們在理解一句話意思時,孤立的理解這句話的每個詞是不夠
總結(jié)
以上是生活随笔為你收集整理的keras从入门到放弃(十九)RNN和LSTM的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: u盘安装win7怎么进入系统安装步骤 U
- 下一篇: keras从入门到放弃(二十)LSTM处